Связывание адаптера Ethernet в Ubuntu 10.04
У меня есть несколько машин, на которых я строю кластер. Для повышения производительности мы решили использовать связывание на интерфейсах Ethernet (каждая ссылка - 1 гигабайт). Я установил модуль ifenslave-2.6 для Ubuntu 10.04 и настроил интерфейсы. Ниже моя конфигурация.
# The loopback network interface
auto lo
iface lo inet loopback
# The primary network interface
auto eth0
iface eth0 inet manual
bond-master bond0
auto eth1
iface eth1 inet manual
bond-master bond0
auto bond0
iface bond0 inet static
address x.x.x.x
gateway x.x.x.1
netmask 255.255.255.0
bond-mode 6
bond-miimon 100
bond-slaves none
Также попробовал связь рабов eth0 eth1 вместо облигации хозяина связи0. Но ничего не сделал.
Итак, как вы можете видеть, я запускаю связь в режиме баланс-альба или режиме 6, чтобы включить связь как для восходящего, так и для нисходящего потоков. Часто (частота около четырех дней) мы видим, что машины не могут общаться друг с другом. Нет пингов. Не отображается на nmap (nmap -sP xxxx). Иногда некоторые машины видны, а некоторые нет. Все они клоны, но это странное поведение. Сначала я проверил arp -a, чтобы увидеть, есть ли у меня проблемы там. И было много неполных записей. (Обычно это происходит после сканирования nmap), но даже после истечения времени ожидания и установления таблицы у меня возникают проблемы с проверкой связи с ними.
Они все в одной подсети. Нет брандмауэра. Все идут к одному и тому же выключателю. Мой переключатель конфигурации прост и выглядит следующим образом
interface GigabitEthernet1/1
!
interface GigabitEthernet1/2
!
interface GigabitEthernet1/3
switchport mode access
spanning-tree portfast
!
interface GigabitEthernet1/4
switchport mode access
spanning-tree portfast
!
interface GigabitEthernet1/5
switchport mode access
spanning-tree portfast
.
.
.
!
interface GigabitEthernet1/17
switchport mode access
spanning-tree portfast
!
interface GigabitEthernet1/18
switchport mode access
spanning-tree portfast
Все они находятся на VLAN 1. Порт 1 идет к нашему маршрутизатору. И порты 3 - 18 настроены одинаково. Их режим настроен на доступ, а связующее дерево установлено на portfast. Каждая машина занимает две ссылки на этом переключателе. Коммутатор cisco 4948. Я прекрасно могу общаться с машинами нашего шлюза или машинами вне нашего шлюза. Но заставить их говорить внутренне становится проблемой именно потому, что мы планируем запустить Hadoop. Любая помощь, толчок, мнение будет действительно полезно! Спасибо.
Также добавляем вывод ifenslave-2.6 -a.
ifenslave.c:v1.1.0 (December 1, 2003)
o Donald Becker (becker@cesdis.gsfc.nasa.gov).
o Detach support added on 2000/10/02 by Willy Tarreau (willy at meta-x.org).
o 2.4 kernel support added on 2001/02/16 by Chad N. Tindel
(ctindel at ieee dot org).
The result of SIOCGIFFLAGS on lo is 49.
The result of SIOCGIFADDR is 00.00.7f.00.
The result of SIOCGIFHWADDR is type 772 00:00:00:00:00:00.
The result of SIOCGIFFLAGS on bond0 is 1443.
The result of SIOCGIFADDR is 00.00.ffffff80.0a.
The result of SIOCGIFHWADDR is type 1 00:1b:21:47:a0:c1.
Даже если это хорошо, дашь мне знать? Тогда проблема может быть просто в другом месте.
1 ответ
Мы используем LACP/802.3ad для наших связанных соединений по всей нашей сети; от наших серверов SAN (4xGigE + 2xGigE) <-> (2xGigE) ссылки на наши межкоммутаторные каналы (сочетание 2x и 4xGigE).
Вы получаете как агрегирование полосы пропускания, так и преимущества избыточности - и главное преимущество для меня - это чертовски просто в управлении, чем статическое агрегирование каналов.
Хотя я знаю, что это не дает прямого ответа на ваш вопрос, вы можете обнаружить, что это делает агрегацию ссылок намного более управляемой (или даже работает в первую очередь!).
-
Мое единственное другое предложение: подцепить проволоку и посмотреть, что происходит по проводу.