Лучшие практики для резервного копирования на Amazon s3 и NAS

Я новичок в морошке.

У меня есть сценарий, в котором около 2,5 ТБ данных с локального сервера должны быть скопированы как на NAS в локальной сети, так и на Amazon S3. Эти данные постоянно меняются несколькими пользователями. Каковы наилучшие практики для достижения чего-то подобного в облачной версии Windows Server Edition?

Я хотел бы также сохранить некоторую возможность управления версиями для рассматриваемых файлов.

2 ответа

Я бы посоветовал вам взглянуть на AcloudA, который можно использовать в качестве аппаратного шлюза, который представляет облачное хранилище как локальный DAS для вашего сервера и выгружает данные в облако.

Его можно установить либо на локальном сервере, либо на NAS (в зависимости от используемой аппаратной спецификации) в качестве жесткого диска SATA/SAS с подключением к облаку (либо Amazon, либо Azure), что позволяет запускать задания резервного копирования так же, как это делается в локальном хранилище.

Это действительно зависит от размера вашего файла и количества объектов. Storage GW от AWS стоит ежемесячно, и у вас есть возможность кэширования, что хорошо.

CloudBerry Backup имеет резервное копирование на уровне блоков, где огромные объекты могут выгружаться на инкрементной основе на уровне блоков (в основном изменения переходят на S3), что дает вам еще одну точку восстановления.

Существует также резервное копирование в реальном времени, которое вы можете попробовать.

Другие вопросы по тегам