Как лучше всего структурировать резервные копии Glacier?

Я планирую создавать резервные копии нескольких сайтов на Glacier в полночь каждый день.

Моя текущая система состоит в том, чтобы создать tar.gz из всего / var / www (то есть всех сайтов) и скопировать его на другой сервер.

Я предполагаю, что буду использовать эти резервные копии, если произойдет сбой всего сервера, хотя, возможно, мне иногда захочется получить отдельные файлы.

Должен ли я продолжать таким же образом (tar.gz всего за один день в одном хранилище) или иметь разные tar.gz для сайта в одном и том же хранилище, или разные tar.gz для сайта в каждом хранилище на сайт?

1 ответ

Подход "лучшее из обоих миров" будет следующим:

  1. Создать S3 Bucket для резервных копий
  2. Настройте правило жизненного цикла, чтобы элементы старше 2 недель (например) автоматически переносились в хранилище классов Glacier.
  3. Планируйте свои резервные копии как простые задачи синхронизации файлов, используя S3 для пункта назначения. У вас есть много инструментов для автоматизации этого.

Делая это таким образом, вы получите приличную "мгновенно готовую" резервную копию в S3 за последние недели с гораздо более продвинутыми инструментами копирования (извините, Glacier), и вы получите выгоду от более низких затрат на Glacier и интерфейс S3 для извлечения предметы, гораздо дружелюбнее, чем у ледника.

Другие вопросы по тегам