Параметры резервного копирования в облачном сервере Rackspace
Недавно я зарегистрировался в Rackspace для размещения некоторых серверов баз данных. У меня установлено два сервера MySQL, и у меня есть метод для создания резервных копий (с использованием инструментов Percona Xtrabackup и innobackupex). Я пытался использовать двойственность, чтобы скопировать эти резервные копии в хранилище S3 и CloudFiles, и это требует большего! Я ожидаю, что резервное копирование S3 будет не очень быстрым, но резервное копирование CloudFiles заняло 15 часов для резервного копирования 9 ГБ. Это ужасно медленно и неприемлемо для меня.
Я просмотрел исходный код дублирования, и по умолчанию он не использует Rackspace Servicenet для передачи в облачные файлы. Затем я посмотрел на исходный код облачных файлов для библиотеки, которую двуличие использует для бэкэнда CF, и увидел, что для использования Servicenet существует экологическая опция (RACKSPACE_SERVICENET
). Если для этого задано что-то, что lib cloudfiles должна подключать к облачным файлам через Rackspace Servicenet, что СЛЕДУЕТ делать для быстрой передачи. Это не.
Я не уверен, является ли ограничение скорости из-за некоторого ограничения CloudFiles или библиотека Python cloudfiles на самом деле не подключается через сервисную сеть RackSpace.
Есть ли у кого-нибудь из вас какие-либо другие предложения относительно того, как я должен / мог бы получать эти резервные копии с сервера и на стороннюю или удаленную службу резервного копирования?
2 ответа
Мы используем Rackspace Server Backup (также известное как резервное копирование JungleDisk Server), который, как и Duplicity, выполняет локальную дедупликацию и сжатие, а затем загружает "чанки" через HTTP в облачный провайдер. Мы видели некоторые проблемы с производительностью, и основная причина заключалась в том, что наши точки предоставления для облачных файлов и облачных серверов были разными. Наши облачные серверы создавались в центре обработки данных DFW, но все сегменты облачных файлов для JungleDisk находятся в центре данных ORD.
В настоящее время Rackspace не дает людям выбора, какой центр обработки данных они собираются использовать, потому что объект DFW близок к емкости. Таким образом, все для "более новых" учетных записей, как предусмотрено в ORD. Таким образом, вы должны открыть заявку в службу поддержки, чтобы изменить точку предоставления.
Кроме того, вы не можете использовать ServiceNet между центрами обработки данных Rackspace (пока).
Тем не менее, мы видим 40+ Мбит / с во время резервного копирования, даже пересекающих центры обработки данных Rackspace с помощью Rackspace Cloud Backup, поэтому я подозреваю, что у вас есть какая-то проблема конфигурации с дублированием, или вы связаны с диском или ЦП во время резервного копирования. Вы пытались запустить резервное копирование на ту же цель из внешних облачных файлов? Как работает простое HTTP PUT большого файла (т.е. исключает дублирование для теста)?
Возможно, не полный ответ, а скорее предложение. Не могли бы вы установить экземпляр Amazon EC2, который непрерывно зеркально отображал (или отслеживал несколько минут) основные серверы БД. Затем вы можете запустить резервное копирование этого экземпляра EC2 непосредственно на S3 и получить более высокие скорости передачи, а также снизить нагрузку на ваши основные компьютеры БД.
Хотя 15 часов для 9 ГБ - это, если мои умственные вычисления верны (что, вероятно, не так), менее 2 МБ / с, что звучит как проблема. Возможно, стоит обратиться в службу поддержки Rackspace и спросить, почему медленная скорость передачи.