Стратегия резервного копирования центра обработки данных

Каковы общие подходы к решениям резервного копирования в удаленных центрах обработки данных?

Я уже знаком с основными принципами резервного копирования и имею очень хорошую стратегию резервного копирования для нашего локального центра обработки данных, но испытываю большие трудности с расширением его до удаленного центра обработки данных. В настоящее время мы делаем полное резервное копирование в пятницу, дифференциал с понедельника по четверг, вращаемся за пределами площадки в пятницу утром... полоскать и повторять неделю за неделей. Кстати, мы используем диски и были очень довольны этим подходом.

  • Мы могли бы купить большой сервер хранения и сделать для него все резервные копии, но это решение не дает вам удаленного доступа.
  • Мы могли бы зашифровать и загрузить в Amazon или другое онлайн-хранилище, но это заняло бы много времени, учитывая данные, и было бы довольно дорого заплатить за пропускную способность, покидая центр обработки данных и получая в Amazon.
  • Мы могли бы ездить в центр обработки данных каждую пятницу и продолжать вращать диски, как мы делаем сейчас. Но это только кажется старомодным.

Чего мне не хватает, есть ли лучшие варианты?

4 ответа

Если вы в настоящее время используете резервное копирование на магнитную ленту и едете на сайт, чтобы повернуть, я мог бы рекомендовать, чтобы кто-то на сайте вращал ленты, а не ездил туда. Большинство центров обработки данных будут предоставлять эту услугу. Тогда вам просто нужна компания, чтобы забрать ленты и забрать их с сайта (IronMountain и Command Services делают это в Канаде)

Если ваши данные являются просто резервной копией из среды Windows, вы можете использовать BAKBONE NetVault Fast Recover, у них есть встроенный инструмент репликации, который выполняет только инкрементную передачу другого сайта через Интернет. Гораздо проще развернуть и управлять на мой взгляд.

Если у вас есть несколько центров обработки данных, почему бы просто не копировать данные по сети в разные центры обработки данных каждую ночь? Если пропускная способность дорогая, посмотрите на частную связь между всеми вашими объектами. Или используйте область под вашим 95-м процентилем в корыте.:)

Вы должны попытаться выполнить резервное копирование rsync как можно больше. Первая загрузка будет дорогой, но их синхронизация должна занимать гораздо меньше места, хотя это зависит от того, как вы выполняете резервное копирование.

Существуют также альтернативы компаниям, которые не будут взимать плату за входящий трафик (загруженный на сервер резервного копирования), который будет дешевле, чем Amazon, и, скорее всего, более избыточен, так как я сомневаюсь, что AWS использует RAID-10 или RAID-6, но я Я не уверен.

Другие вопросы по тегам