Объединение в команду на коммутаторе Cisco Catalyst
Надеюсь, легкий для кого-то...
Если я настраиваю MPIO или Team/bond на сервере Windows, нужно ли группе каналов настраивать коммутаторы Cisco Catalyst, к которым они подключены? Есть ли польза от этого? или также какой-либо недостаток? у нас есть много свободных портов на коммутаторах, так что это не проблема.
Я предполагаю... что нужно создать группу каналов, чтобы использовать преимущества объединения /MPIO на стороне сервера уравнения?
3 ответа
Я не думаю, что это то, что вы хотите сделать для MPIO. Для объединения / объединения / объединения ссылок вы можете рассмотреть это, но это не обязательно.
Ваша цель максимизировать пропускную способность или избыточность?
Что касается пропускной способности, то вы должны настроить группу каналов. Для резервирования вы бы хотели, чтобы каждый сетевой адаптер в команде был подключен к другому коммутатору.
Если у вас есть стекированные коммутаторы или много NICS на сервере, вы можете максимизировать избыточность и пропускную способность.
Вы могли бы потратить слишком много времени, чтобы понять это тоже. Вы используете одно соединение?
Предполагая, что вы не используете запатентованные технологии поставщика сетевых плат, объединение сетевых карт обычно означает LACP (802.3ad), который вам также необходимо настроить на коммутаторе, создав интерфейс канала порта и связав физические каналы с этим каналом порта, используя команда конфигурирования интерфейса группы каналов. Распространенным вариантом использования для объединения в команду является увеличение пропускной способности и избыточности физического канала между сервером и коммутатором (или стеком коммутатора).
MPIO относится исключительно к избыточности пути между инициатором iSCSI/FCoE/SAS и целью. MPIO не использует LACP, его необходимо настроить только на обеих конечных точках соединения iSCSI/FCoE/SAS. Типичным примером использования MPIO является избыточность пути между узлом сервера и узлом хранения iSCSI, где любой узел имеет несколько физических интерфейсов.
MPIO совместим с LACP, если вы хотите увеличить пропускную способность и физическую избыточность для соединения с коммутатором сервера в дополнение к избыточности пути для соединения с хранилищем. Например, если на вашем сервере четыре сетевых карты, вы можете настроить две команды сетевых карт (LACP) между сервером и коммутатором и использовать MPIO между сервером и конечной точкой MPIO, которая будет использовать эти два логических пути.
Для трафика хранилища с MPIO-совместимым драйвером (DSM) вам не нужен LACP. Использование нескольких независимых сетевых карт с MPIO создаст несколько путей; который, в зависимости от возможностей DSM и целевого хранилища, может включать циклический перебор путей на высокой пропускной способности; и иметь избыточность в силу нескольких путей.
LACP усложнит и узкое место это; поэтому обычно не используются вместе: LACP уменьшает количество конечных точек (несколько сетевых карт становятся одним), тем самым уменьшая количество возможных комбинаций путей MPIO. Кроме того, на коммутаторах LACP / агрегация портов / etherchannel использует алгоритм хэширования, чтобы определить, какая ссылка в совокупности будет отправлять данные - если у вас есть только один пункт назначения для трафика (устройство хранения), он будет когда-либо использовать только одну ссылку в совокупность, поэтому, хотя LACP увеличивает избыточность, он не получает пропускную способность.
Для трафика без хранилища (все, что не поддерживает MPIO), тогда LACP является правильным выбором - на серверах вы можете определить стратегию балансировки нагрузки при отправке, а на коммутаторах вы можете настроить алгоритм хеширования, чтобы наилучшим образом использовать несколько ссылок, используя команда глобальной конфигурации port-channel load-balance