Резервное копирование S3 ведро в другое?
Я смотрю на двуличие и двуличие в настоящее время, чтобы отразить одно ведро в другое, но похоже, что я, возможно, врезаюсь в кирпичную стену?
До сих пор мне удавалось заставить все работать, создавая резервные копии локальных каталогов в корзину S3, эта часть прекрасно работает. Моя настоящая проблема заключается в том, что я пытаюсь создать резервную копию сегмента S3 путем резервного копирования, по существу, зеркалирования двух сегментов.
Когда я пытаюсь запустить инструмент дублирования, я получаю следующий вывод:
sudo duply test backup
Start duply v1.5.10, time is 2014-07-01 11:49:48.
Using profile '/home/user/.duply/test'.
Using installed duplicity version 0.6.23, python 2.7.6, gpg 1.4.16 (Home: ~/.gnupg), awk 'GNU Awk 4.0.1', bash '4.3.11(1)-release (i686-pc-linux-gnu)'.
Signing disabled. Not GPG_KEY entries in config.
Test - Encryption with passphrase (OK)
Test - Decryption with passphrase (OK)
Test - Compare (OK)
Cleanup - Delete '/tmp/duply.17999.1404233388_*'(OK)
--- Start running command PRE at 11:49:49.054 ---
Skipping n/a script '/home/jmreicha/.duply/test/pre'.
--- Finished state OK at 11:49:49.077 - Runtime 00:00:00.022 ---
--- Start running command BKP at 11:49:49.098 ---
Command line error: Two URLs specified. One argument should be a path.
Enter 'duplicity --help' for help screen.
11:49:49.256 Task 'BKP' failed with exit code '2'.
--- Finished state FAILED 'code 2' at 11:49:49.256 - Runtime 00:00:00.157 ---
--- Start running command POST at 11:49:49.285 ---
Skipping n/a script '/home/jmreicha/.duply/test/post'.
--- Finished state OK at 11:49:49.308 - Runtime 00:00:00.022 ---
Как вы можете видеть, duply/duplicity ожидает локальный путь к файлу в качестве источника. Я могу создать конфиги, если это поможет диагностировать проблему.
Есть ли способ получить дублирование / дублирование для запуска резервной копии одного блока S3 в качестве источника для другой цели S3? Если нет, то какие инструменты способны синхронизировать два сегмента S3?
1 ответ
Если кто-нибудь сталкивается с этой проблемой, я нашел обходной путь.
Во-первых, если вы работаете в Windows и вам нужно скопировать одну корзину в другую, вы можете использовать s3cmd Express. Я поговорил с одним из разработчиков s3cmd, и он упомянул, что существуют проблемы с версией s3cmd для Linux/OSX для огромных сегментов, поэтому он посоветовал мне использовать Express, если это вообще возможно.
К сожалению, у меня есть только коробка с Linux, поэтому я в конечном итоге использовал aws cli
, Это очень похоже на s3cmd, так как они оба используют библиотеку Python boto. Команда для синхронизации корзины:
aws s3 sync s3://mybucket s3://backup-mybucket
Вы можете добавить --dryrun
Отметьте, чтобы сначала проверить вашу команду, чтобы убедиться, что она делает то, что вы хотите.