10GbE с FCoE с трафиком SAN и LAN - это хорошее решение?
Я строю небольшой центр обработки данных с земли, и я рассматриваю 10GbE. Я ищу несколько советов об этом решении.
Я сравнил Infiniband, FC, 10GbE и LACP с GigE, и в итоге 10GbE кажется лучшим решением на данный момент.
Говоря о центре обработки данных: он будет иметь одно или два хранилища (два в случае сценария аварийного переключения) и три машины 1U, на которых работает какой-то гипервизор (XenServer - мой любимый). Виртуальные машины будут находиться в хранилище, поэтому гипервизоры будут загружаться из хранилища, или я добавлю несколько небольших SSD на компьютеры 1U для загрузки гипервизора.
Итак, проблема здесь такова: меня немного смущает то, что я должен купить, чтобы создать сеть. Я видел несколько дорогих коммутаторов, таких как Cisco Nexus 5000/7000 с множеством функций, но я не знаю, нужны ли мне эти парни.
У меня нет FC, поэтому безопасно покупать одиночные коммутаторы 10GbE без технологий "конвергентных сетей"? Или я должен взять один из них, чтобы запустить FCoE?
Другой вопрос: iSCSI более 10GbE будет лучше, чем FCoE? (Я считаю, что FCoE лучше, потому что мы не используем стек IP в FCoE).
Заранее спасибо, и я действительно ценю некоторые мнения здесь.
4 ответа
Я с Томом здесь! IB (даже древний) дешевле и быстрее по сравнению с 10 GbE.
Люди получают хорошие цифры от элитного оборудования:
http://forums.servethehome.com/networking/1758-$ 67-ddr-infiniband-windows-1-920mb-s-43k-iops.html
Проблема в том, что TCP-over-IB отстой (убивает производительность, добавляя огромные задержки), а собственная поддержка IB очень ограничена. SMB Direct с Windows Server 2012 R2 великолепен (когда он работает).
FCoE имеет смысл, если у вас есть существующая инфраструктура FC, и вам нужно подавать FC LUN на новые серверы, и у них нет FC HBA (или у вас нет лицензированных портов FC на коммутаторах FC - это то же самое). Таким образом, вы берете 10 GbE и запускаете FCoE, чтобы сократить расходы на снаряжение FC. Создавать с нуля FCoE бессмысленно, запускайте iSCSI (или SMB Direct с RDMA, если вы на "темной стороне") более 10 GbE и будьте счастливы. С недавними и приличными многоядерными и многоядерными процессорами, а также TCP и iSCSI, по крайней мере, частично выгруженными в ASIC NIC, нет никакой разницы между хранилищем через TCP и хранилищем через raw Ethernet. Удачи мой друг!
Решение между технологиями должно приниматься на основе оценки ваших потребностей / бюджета / опыта. Очевидно, что ваш выбор в значительной степени зависит от того, какой тип хранилища вы используете или приобретете, а также от вашей сетевой инфраструктуры. Традиционно SAN использовали оптоволоконный канал из-за их высокой скорости, но с появлением 10GbE Ethernet стал достойным конкурентом. В зависимости от уровня использования вашего центра обработки данных, вы даже можете обойтись без использования 1GbE и MPIO с возможностью масштабирования позже. Большинство крупных поставщиков предоставят вам выбор между предложениями iSCSI, FCoE и FC, и выбор между ними должен основываться на вашей текущей (или желаемой) инфраструктуре с учетом вашего опыта работы с персоналом.
Я не могу комментировать использование Infiniband, поскольку я никогда не использовал его сам, за исключением того, что его использование менее распространено, чем эти другие технологии, и соответственно меньшее количество поставщиков на выбор. Дополнительным риском является поиск персонала, который может поддерживать менее распространенное оборудование.
Лично, если вы (и ваши сотрудники) не имеете опыта (или существующей инфраструктуры) с оптоволоконным каналом, я бы порекомендовал выбрать предложение iSCSI, поскольку ваша кривая обучения (и, возможно, ваши затраты на внедрение) будет намного ниже. Большинство людей забывают, что затраты на оборудование ничтожны по сравнению с трудовыми ресурсами. Я трачу на расходы на персонал в десять раз больше, чем на свой аппаратный бюджет, поэтому, если какой-то тип оборудования немного дороже, но хорошо понимается моими сотрудниками (или мне легче найти кого-то, кто будет над ним работать), это становится очевидный выбор. Если, конечно, вы не ищете новую возможность обучения.:П
Зачем?
Учитывая высокие цены и низкую пропускную способность, я бы всегда предпочел Infiniband 10g. Плюс исходящий канал 1g - если у вас не более 1 г пропускной способности восходящего канала.
Из-за других ограничений я использую 10g на некоторых серверах (в основном - почти все - 1g, а Netgear TXS 752, который мы используем в качестве магистрали - 4x10g spf+), а ценовой фактор сетевых карт - ой. По сравнению с гораздо более быстрым Infiniband.