~50 ТБ хранилища в Azure представлено в виде единого общего файлового ресурса Windows
Я погуглил, самая близкая вещь, которую я нашел до сих пор, - другой вопрос SF: Ограничения хранилища Azure.
Цель:
Переместите приблизительно 50 ТБ хранилища в облако, представьте это хранилище в качестве стандартного общего файлового ресурса Windows и сравнительно легко расширяйте его по мере роста.
Эта проблема:
Похоже, что один VHD может иметь размер всего 1 ТБ, что явно нехорошо.
Я не думаю, что у кого-то здесь есть решение, которое они могли бы предложить?
Спасибо за чтение,
Ксавье.
3 ответа
Попробуйте исследовать пространства имен Microsoft DFS и начать разделение данных в Azure - я сделал похожий проект. Когда вы добавляете небольшой отдельный VHD, затем монтируете дополнительные 1TB VHD в качестве точек монтирования под первым диском, например
Крепление диска на 100 ГБ как D:
Затем Nth 1TB VHD будет монтироваться в D:\Disk1 ... D:\Disk50, затем с пространствами имен DFS вы можете обмениваться данными, например, \DOMAIN\SHARES\Finance будет отображаться в \NEWFILESERVER\DISK43$\Finance и т. Д.
Не самый идеальный, но будет работать в современных технических рамках Azure.
Я надеюсь, что объяснил это достаточно, чтобы вы начали - не стесняйтесь связаться, если вам нужна дополнительная помощь.
Удачи в загрузке 50 ТБ, возможно, стоит подумать о том, является ли хранение этих данных в Azure более рентабельным, чем хранение их в офисах, но при увеличении количества каналов WAN/Internet. Тем не менее, вам не придется беспокоиться о новом оборудовании и т.д. Приведенное выше решение вполне масштабировалось бы, я себе представляю.
Служба хранилища файлов Azure позволяет создавать общие файловые ресурсы размером до 5 ТБ, каждый файл - до 1 ТБ. Это фактически том SMB с базовым REST API. Вы можете получить доступ к этой общей папке как из ресурсов Azure, так и из локальных ресурсов.
Поскольку вы имеете дело с 50 ТБ, вам необходимо создать несколько томов файловой службы. Хранилище Azure поддерживает до 500 ТБ на одну учетную запись хранения, но не в виде единого общего файлового ресурса. Вы можете загружать файлы в отдельные двоичные объекты, предоставляя вам доступ к полному 500 ТБ, но это не обеспечит интерфейс SMB; вместо этого вам придется полагаться либо на определенный язык SDK по вашему выбору (.net, java, python, node, ruby, php), либо на прямые вызовы REST для работы с этими дискретными объектами.
Что касается перемещения контента в облако, вы можете сделать это с помощью своего собственного приложения (после подключения к общей папке) или использовать такой инструмент, как AzCopy, который теперь поддерживает файловую службу в качестве источника / места назначения. См. Эту статью, в которой упоминается AzCopy и как вы будете использовать его для передачи в файловую службу.
Файловая служба Azure может быть вам полезна. Кроме того, как отмечает HBrujn выше, 1 ТБ - это больше, чем 50 ГБ, которые вы ищете.