Резервное копирование S3 ведро в другое?

Я смотрю на двуличие и двуличие в настоящее время, чтобы отразить одно ведро в другое, но похоже, что я, возможно, врезаюсь в кирпичную стену?

До сих пор мне удавалось заставить все работать, создавая резервные копии локальных каталогов в корзину S3, эта часть прекрасно работает. Моя настоящая проблема заключается в том, что я пытаюсь создать резервную копию сегмента S3 путем резервного копирования, по существу, зеркалирования двух сегментов.

Когда я пытаюсь запустить инструмент дублирования, я получаю следующий вывод:

sudo duply test backup
Start duply v1.5.10, time is 2014-07-01 11:49:48.
Using profile '/home/user/.duply/test'.
Using installed duplicity version 0.6.23, python 2.7.6, gpg 1.4.16 (Home: ~/.gnupg), awk 'GNU Awk 4.0.1', bash '4.3.11(1)-release (i686-pc-linux-gnu)'.
Signing disabled. Not GPG_KEY entries in config.
Test - Encryption with passphrase (OK)
Test - Decryption with passphrase (OK)
Test - Compare (OK)
Cleanup - Delete '/tmp/duply.17999.1404233388_*'(OK)

--- Start running command PRE at 11:49:49.054 ---
Skipping n/a script '/home/jmreicha/.duply/test/pre'.
--- Finished state OK at 11:49:49.077 - Runtime 00:00:00.022 ---

--- Start running command BKP at 11:49:49.098 ---
Command line error: Two URLs specified.  One argument should be a path.
Enter 'duplicity --help' for help screen.
11:49:49.256 Task 'BKP' failed with exit code '2'.
--- Finished state FAILED 'code 2' at 11:49:49.256 - Runtime 00:00:00.157 ---

--- Start running command POST at 11:49:49.285 ---
Skipping n/a script '/home/jmreicha/.duply/test/post'.
--- Finished state OK at 11:49:49.308 - Runtime 00:00:00.022 ---

Как вы можете видеть, duply/duplicity ожидает локальный путь к файлу в качестве источника. Я могу создать конфиги, если это поможет диагностировать проблему.

Есть ли способ получить дублирование / дублирование для запуска резервной копии одного блока S3 в качестве источника для другой цели S3? Если нет, то какие инструменты способны синхронизировать два сегмента S3?

1 ответ

Решение

Если кто-нибудь сталкивается с этой проблемой, я нашел обходной путь.

Во-первых, если вы работаете в Windows и вам нужно скопировать одну корзину в другую, вы можете использовать s3cmd Express. Я поговорил с одним из разработчиков s3cmd, и он упомянул, что существуют проблемы с версией s3cmd для Linux/OSX для огромных сегментов, поэтому он посоветовал мне использовать Express, если это вообще возможно.

К сожалению, у меня есть только коробка с Linux, поэтому я в конечном итоге использовал aws cli, Это очень похоже на s3cmd, так как они оба используют библиотеку Python boto. Команда для синхронизации корзины:

aws s3 sync s3://mybucket s3://backup-mybucket

Вы можете добавить --dryrun Отметьте, чтобы сначала проверить вашу команду, чтобы убедиться, что она делает то, что вы хотите.

Другие вопросы по тегам