Соединение Oracle RAC в блейд-корпусе Dell M1000e

Мы рассматриваем корпус Dell M1000e и соответствующие blade-серверы с 4 сетевыми картами каждый. Мы планируем использовать Linux/Oracle 11g RAC на двух блейд-серверах, хранилище будет обрабатываться в iSCSI SAN, для которой будут подключены две сетевые карты (через сквозную передачу), в результате чего у нас будет две сетевые карты (через центральные коммутаторы блейдов).

Мы хотели бы иметь соединение (очевидно), внешний IP и внутренний IP.

Лучшей практикой будет:

  • связать оставшиеся два интерфейса и VLAN в зависимости от ситуации, чтобы обеспечить три виртуальных интерфейса?
  • запустить межсоединение на одном интерфейсе и VLAN внешние / внутренние интерфейсы?
  • купить лезвие с большим количеством сетевых карт, так как это ужасная идея?
  • Другой вариант?

Пожалуйста, не стесняйтесь указывать на очевидную или соответствующую документацию на support.oracle.

Меня особенно интересуют поддерживаемые конфигурации и лучшие практики.

Спасибо!

2 ответа

Решение

На ваш вопрос, я являюсь поклонником отдельных интерфейсов для OCFS2 Interconnect, но из вашей настройки похоже, что лучшим решением будет NIC Bond для двух интерфейсов и VLAN из виртуальных ip для внешних и int (публичных и частных) имен хостов, Разделение для трафика межсоединения только для задержки, а не пропускной способности. Если вы уверены, что задержка не повлияет на ваше соединение, в решении BOND + TRUNK, описанном выше, не должно быть проблем.

Я не фанат использования iSCSI на скорости 1 Гбит / с для всего, что требует приличной производительности, например для базы данных. Я бы сам переключился на 8 Гбит / с FC, но если это не вариант, я бы подумал об использовании пары сетевых адаптеров 10 Гбит / с на сервер и использовании тегов VLAN для создания виртуальных интерфейсов, а не использования большего количества сетевых адаптеров 1 Гбит / с. Таким образом, он будет работать так же, как и позволит вам настраивать и настраивать вашу сеть для каждого сервера отдельно.

Я не Dell, но похоже, что на системной плате нет блейдов половинной высоты с двумя сетевыми картами 10 Гбит / с, что немного устарело, но вы можете довольно легко добавить адаптер Broadcom 57711, а затем использовать их коммутатор M8024 10 Гбит / с, игнорируя встроенные сетевые адаптеры 1 Гбит / с.

Понятия не имею, что вы представляете собой iSCSI SAN, но, очевидно, было бы целесообразно включить 10Gbps или заполнить его адаптерами 1Gbps.

Это то, что я бы сделал в любом случае.

Другие вопросы по тегам