Рекомендации по аппаратному обеспечению и топологии для среды iSCSI + GFS
В настоящее время мы проводим оценку аппаратных и топологических решений для новой среды с использованием GFS+iSCSI и хотели бы получить некоторые советы и рекомендации. В прошлом мы внедрили подобное решение, где все узлы, обращающиеся к узлам GFS, были самими узлами GFS. Новая топология будет состоять в том, чтобы отделить узлы GFS от клиентов, обращающихся к ним.
Базовая диаграмма будет выглядеть так:
GFS_client <-> gigE <-> узлы GFS <-> gigE <-> устройство iSCSI SAN
- Это самый оптимальный способ настройки GFS+iSCSI?
- Есть ли у вас предложения по оборудованию для самих узлов GFS (т. Е. Процессор или объем памяти)?
- Есть ли у вас предложения по настройке настроек / настроек для увеличения производительности узлов GFS?
- В настоящее время мы используем 3-4 гигабитных соединения на хост для повышения производительности и резервирования. На этом этапе 10gigE или волокно становятся более привлекательными для стоимости / масштабирования?
6 ответов
Единственная часть этого вопроса, на которую я могу предложить ответ, это # 4.
Мы оценили и рассмотрели 10GbE для нашей сети SAN и решили, что дешевле, эффективнее и безопаснее придерживаться апараторов 1Gb с балансировкой и нагрузкой. Достижение такого же уровня избыточности с 10GigE было астрономическим и обеспечило номинальное увеличение производительности для клиентов (в конце концов, вы не собираетесь устанавливать карту 10GbE в каждый клиент).
Я не думаю, что есть "оптимальная" установка. Просто убедитесь, что вы запустили свой инициатор iSCSI перед GFS. Вы уже указали связывание в качестве показателя избыточности / производительности. Вероятно, вам также следует подумать о создании многопутевого соединения с вашей целью, если у вас есть 4 NIC, возможно, создайте 2 пути по 2 связным интерфейсам для лучшей избыточности. Вам также следует рассмотреть возможность использования Jumbo-фреймов, если у вас есть выделенный коммутатор iSCSI, который поддерживает эту функцию.
GFS как подсистема не очень тяжелая для системы. В ядре удерживаются блокировки, некоторая информация о членстве / сердцебиение бегают между узлами, вот и все. С другой стороны, поскольку вы планируете сделать их как узлами GFS, так и сервером, к которому обращаются клиенты, вам, вероятно, следует инвестировать в свои сетевые адаптеры / коммутаторы и оперативную память для серверов.
Джамбо кадры. 803.2ad агрегирование ссылок, если это возможно, с обеих сторон (iscsi и клиенты). Оптимизация стека tcp (/proc/sys/net/ipv4/tcp_rmem|wmem)
Я пропущу этот, я понятия не имею о стоимости 10ge.
Я не могу комментировать (пока) пост LapTop006, но он точно на месте!
Суть в том, что все ваше сетевое оборудование в IP-SAN должно поддерживать одинаковое количество MTU (Maximum Transmission Unit). Если я правильно помню, максимальный MTU для Jumbo Frames по спецификации составляет 9000 байт, но я видел людей, использующих 9100 и выше..
Вы думали о резервировании сети? Кластеры GFS очень уязвимы для пропущенных сердцебиений. Мы используем связывание интерфейсов для всех наших кластеров и каналов iSCSI, подключенных к отдельным коммутаторам.
Мы оцениваем решение для нашей новой сети SAN, и продукт Equalogic действительно отлично подходит для iscsi. Каждый комплект состоит из 15 дисков и 2 контроллеров (A/P 4 ГБ каждый). Поскольку вы добавляете 2 контроллера на 15 дисков, вы получаете линейное увеличение производительности при увеличении емкости хранилища.
Пока они не идут 10Ge, но каждый контроллер имеет 4 ссылки. Они обеспечивают реальное тонкое обеспечение
Просто чтобы добавить к #3 и 4
Jumbo может иметь огромное преимущество в производительности, особенно для сетей хранения данных, где 99,99% пакетов будут большими. Просто убедитесь, что сначала сделали аудит, чтобы убедиться, что все хосты в сети поддерживают их.
Во-вторых, стоит убедиться, что все эти дополнительные интерфейсы GigE дают вам большую скорость, большинство коммутаторов (по умолчанию) на самом деле используют хеши на основе MAC или IP, поэтому вы можете не видеть больше 1 Гб между одной парой хостов.
К тому времени, когда вы добавляете 10Gbe, вы должны просто прикусить пулю и использовать FC, который намного быстрее при той же скорости соединения, или подождать до начала следующего года, когда конвергентные Ethernet-ресурсы наконец-то должны появиться по цене ниже "раннего пользователя" ценообразование.