Сетевой трафик автоматически балансируется, а не только через один интерфейс
У меня есть 2 сервера, каждый с двумя сетевыми картами, которые работают через две совершенно разные сети. Одна сеть является общедоступной, а сетевые адаптеры настроены с общедоступными IP-адресами. Другая сеть является частной сетью, соединяющей два сервера с частными IP-адресами.
Server 1 IPs:
197.189.20x.x / 255.255.255.248 / GW: 197.189.20x.x - Public NIC plugged into public network
10.10.10.1 / 255.255.255.0 / GW: None - Private NIC plugged into private network
Server 2 IPs:
197.189.21x.x / 255.255.255.248 / GW: 197.189.21x.x - Public NIC plugged into public network
10.10.10.3 / 255.255.255.0 / GW: None - Private NIC plugged into private network
Независимо от того, с какого IP-адреса серверы соединяются друг с другом, трафик передается через общедоступный сетевой адаптер (который составляет 100 МБ), затем, когда он достигает своего предела пропускной способности, он помещает дополнительный трафик в частный сетевой адаптер (который составляет 1 ГБ).
Чтобы еще больше спровоцировать путаницу, когда я отключаю публичный ник, я получаю полный 1-гигабайтный перевод, когда я включаю публичный ник, и он "сам балансирует нагрузку", тогда я получаю только около 300 Мб (100 от публичного, 200 от частного).
Я не знаю, будет ли это что-то значить, но на этой неделе эти два сервера были заменены. Ранее у нас было два сервера под управлением Windows Server 2008 R2 с различными марками встроенных сетевых адаптеров; новые серверы были загружены с Windows Server 2012 R2 и имеют идентичные встроенные сетевые адаптеры Intel. Таким образом, сеть такая же, просто серверы и их ОС теперь разные. На двух серверах 2008 года все работало идеально, частный трафик был частным, а публичный трафик - общедоступным.
Любая помощь будет высоко ценится, так как я готов сдаться и пойти вместо этого забить!
Изменить: В отчаянном меру, я начал регрессировать серверы, чтобы попытаться изолировать причину проблемы. Как только я удалил виртуальные коммутаторы из Hyper-V, сеть сразу же начала отвечать, как и ожидалось. Поставьте переключатели обратно, и он снова начнет динамически балансировать нагрузку. Это помогло сузить мой поиск, и я нашел эту статью "Что нового в виртуальном коммутаторе Hyper-V в Windows Server 2012 R2"
Динамическая балансировка нагрузки сетевого трафика
Windows Server® 2012 обеспечивала одновременное распределение нагрузки и аварийное переключение, но не обеспечивала сбалансированное распределение нагрузки между сетевыми картами в группе сетевых адаптеров.
В Windows Server® 2012 R2 динамическая балансировка нагрузки непрерывно и автоматически перемещает потоки трафика с сетевой карты на сетевую карту внутри группы сетевых карт, чтобы максимально равномерно распределить нагрузку на трафик.
Для получения дополнительной информации о объединении сетевых карт см. Обзор объединения сетевых карт.
Единственный кикер, мы НЕ ИСПОЛЬЗУЕМ NIC TEAMING! Надеюсь, это проливает некоторый свет на эту тему, и здесь можно надеяться, что кто-то столкнулся и сумел решить эту дилемму.
Изменить 2: Вот таблица маршрутизации (коммутаторы Hyper-V были созданы снова):
Interface List
22...0c c4 7a 71 a9 01 ......Hyper-V Virtual Ethernet Adapter #3
20...0c c4 7a 71 a9 00 ......Hyper-V Virtual Ethernet Adapter #2
1...........................Software Loopback Interface 1
14...00 00 00 00 00 00 00 e0 Microsoft ISATAP Adapter
15...00 00 00 00 00 00 00 e0 Microsoft 6to4 Adapter
16...00 00 00 00 00 00 00 e0 Microsoft ISATAP Adapter #2
===========================================================================
IPv4 Route Table
===========================================================================
Active Routes:
Network Destination Netmask Gateway Interface Metric
0.0.0.0 0.0.0.0 197.189.20x.x2 197.189.20x.x3 261
10.10.10.0 255.255.255.0 On-link 10.10.10.1 261
10.10.10.1 255.255.255.255 On-link 10.10.10.1 261
10.10.10.255 255.255.255.255 On-link 10.10.10.1 261
127.0.0.0 255.0.0.0 On-link 127.0.0.1 306
127.0.0.1 255.255.255.255 On-link 127.0.0.1 306
127.255.255.255 255.255.255.255 On-link 127.0.0.1 306
197.189.20x.x1 255.255.255.248 On-link 197.189.20x.x3 261
197.189.20x.x3 255.255.255.255 On-link 197.189.20x.x3 261
197.189.20x.x4 255.255.255.255 On-link 197.189.20x.x3 261
224.0.0.0 240.0.0.0 On-link 127.0.0.1 306
224.0.0.0 240.0.0.0 On-link 197.189.20x.x3 261
224.0.0.0 240.0.0.0 On-link 10.10.10.1 261
255.255.255.255 255.255.255.255 On-link 127.0.0.1 306
255.255.255.255 255.255.255.255 On-link 197.189.20x.x3 261
255.255.255.255 255.255.255.255 On-link 10.10.10.1 261
===========================================================================
Persistent Routes:
Network Address Netmask Gateway Address Metric
0.0.0.0 0.0.0.0 197.189.20x.x2 Default
0.0.0.0 0.0.0.0 197.189.20x.x2 256
===========================================================================
IPv6 Route Table
===========================================================================
Active Routes:
If Metric Network Destination Gateway
15 1177 ::/0 2002:c058:6301::1
15 1176 ::/0 2002:c058:6301::c058:6301
1 306 ::1/128 On-link
15 1005 2002::/16 On-link
15 261 2002:c5bd:cb0a::c5bd:cb0a/128
On-link
1 306 ff00::/8 On-link
===========================================================================
Persistent Routes:
None
Конфиги V Switch для обоих серверов идентичны:
Private network is an "External Network" switch connected to the NIC running the private 10.x IPs.
Public network is an "External Network" switch connected to the NIC running public 197.x IPs.
No VLANs configured
Спасибо за помощь, дайте мне знать, если вам нужно что-нибудь еще, я буду здесь всю ночь:(