Как лучше всего структурировать резервные копии Glacier?
Я планирую создавать резервные копии нескольких сайтов на Glacier в полночь каждый день.
Моя текущая система состоит в том, чтобы создать tar.gz из всего / var / www (то есть всех сайтов) и скопировать его на другой сервер.
Я предполагаю, что буду использовать эти резервные копии, если произойдет сбой всего сервера, хотя, возможно, мне иногда захочется получить отдельные файлы.
Должен ли я продолжать таким же образом (tar.gz всего за один день в одном хранилище) или иметь разные tar.gz для сайта в одном и том же хранилище, или разные tar.gz для сайта в каждом хранилище на сайт?
1 ответ
Подход "лучшее из обоих миров" будет следующим:
- Создать S3 Bucket для резервных копий
- Настройте правило жизненного цикла, чтобы элементы старше 2 недель (например) автоматически переносились в хранилище классов Glacier.
- Планируйте свои резервные копии как простые задачи синхронизации файлов, используя S3 для пункта назначения. У вас есть много инструментов для автоматизации этого.
Делая это таким образом, вы получите приличную "мгновенно готовую" резервную копию в S3 за последние недели с гораздо более продвинутыми инструментами копирования (извините, Glacier), и вы получите выгоду от более низких затрат на Glacier и интерфейс S3 для извлечения предметы, гораздо дружелюбнее, чем у ледника.