Реализация больших кадров на одном интерфейсе, а не на другом
У меня есть распределенное приложение, которое пропускает много трафика между несколькими машинами. В настоящее время эти машины совместно используют гигабитную сеть с остальными машинами в стойке, и я начинаю видеть проблемы (коллизии пакетов). Разыскивая решения, я наткнулся на обсуждение гигантских фреймов, которые определенно решат мою проблему, если они будут работать так, как рекламируется. Но...
Серверы, которые я использую для распределенного приложения (это тип поискового робота), также должны иметь доступ к Интернету, и все, что я читал о jumbo frame, предупреждает, что для его правильной работы каждое устройство, подключенное к сети, должно поддерживать jumbo. Рамка. Мой маршрутизатор вполне может справиться с разбиением гигантских пакетов перед передачей, но это невероятно замедлит работу.
Все мои серверы имеют две сетевые карты. Могу ли я настроить частную сеть для распределенного приложения, убедившись, что первые сетевые карты всех машин установлены для jumbo frame, и использовать вторую карту на этих машинах (с отключенным jumbo frame) для подключения к остальной части моего компьютера? сеть и внешний мир. Здесь я думаю, что тяжелый трафик, находящийся внутри подсистемы сканера, будет тогда изолирован от остальной части сети, включая интернет-трафик, а использование большого кадра увеличит скорость связи.
Все машины являются серверами Dell PowerEdge 1950 под управлением Windows 2008. Я знаю, что сетевые адаптеры Broadcom GigE серверов PE поддерживают jumbo frame, но можно ли настроить один с jumbo frame, а другой - без?
Наконец, как мне убедиться, что я получаю переключатель, который поддерживает Jumbo Frame? Мы используем коммутаторы TP-Link, которые в настоящее время работают хорошо, но я не могу найти никакой информации о том, поддерживают ли они Jumbo Frame.
Я знаю, у меня много вопросов. То, что я считаю, звучит разумно?
3 ответа
При этом убедитесь, что ваши сетевые карты существуют в отдельных сетевых блоках. Если вы используете Linux, пакеты маршрутизируются через первый сетевой адаптер в системе в сетевом блоке, поэтому, хотя eth1 имеет MTU 9000, он может в конечном итоге маршрутизировать эти пакеты через eth0.
Мы настроили отдельную VLAN для нашей сети хранения данных и должны были настроить отдельный сетевой блок на eth1, чтобы избежать такого поведения. Увеличение MTU до 9000 легко увеличило пропускную способность, поскольку эта конкретная система имеет дело с потоковой передачей нескольких довольно больших файлов.
Это должно быть вполне выполнимо. Сетевые карты сервера в Windows могут иметь разные настройки MTU для каждого интерфейса. В противном случае iSCSI, обычный драйвер jumbo-фреймов, не смог бы получить такой результат.
Сделав шаг назад на мгновение, в полнодуплексной коммутируемой среде вы не должны испытывать коллизии. Я бы исследовал причину столкновений, прежде чем идти дальше по тропинке гигантских кадров.
При этом отдельные устройства должны согласовывать свои размеры MTU друг с другом. Так что вам не нужно включать его для всех устройств.