Подключить рейдовую клетку HP gen 5 SAS к стороннему контроллеру (3ware, LSI)?
У меня есть ML350 G5, который я собираюсь использовать, чтобы сэкономить деньги. Я хочу установить FreeNAS, но он (ZFS) не очень хорошо работает с картой HP e200i, входящей в состав материнской платы, из того, что я прочитал. Я хотел бы купить хорошую, бывшую в употреблении карту pcie x4 / x8 RAID для дешевых и подключить ее непосредственно к объединительной плате, что позволит мне продолжать использовать корзину LFF для моих дисков.
На объединительной плате используются 2-канальные SAS-кабели 2ea с разъемами sff-8484 на обоих концах. Можно ли отсоединить один и с помощью отводного кабеля перенаправить на мою дополнительную карту RAID? На мой взгляд, это позволило бы мне электрически разделить клетку пополам - 3 диска с использованием e200i, 3 диска с использованием новой карты.
Я понятия не имею, сколько логики является частью объединительной платы RAID или объединительной платы HP. Я не знаю, является ли это "тупым" компонентом, который только устанавливает электрическое соединение от HD к RAID-контроллеру, или это "умный", выполняющий логические функции, которые в основном делают его совместимым с собственностью.
мысли? Спасибо!
1 ответ
Если бы я имел дело с этой моделью / сборкой сервера (около 2005-2008), я бы, вероятно, воспользовался существующей установкой... Несколько моментов:
- 3,5-дюймовая задняя панель на 6 дисков в G5 ML350 - это немой компонент. В нем нет встроенной логики RAID или расширения SAS.
- Вы можете подключить эту объединительную плату и отсек к любому RAID-контроллеру или SAS HBA, при условии, что вы используете правильные кабели. SFF-8484 на стороне объединительной платы и, возможно, SFF-8087 на стороне контроллера, если вы используете более новый контроллер.
- Это старое оборудование, поэтому следует понимать ограничения слотов PCIe, пропускную способность SAS (3,0 Гбит / с)
- Если вы используете диски SATA, скорость соединения будет ограничена 1,5 Гбит / с на диск, если вы используете контроллер HP Smart Array с корректным периодом (E200i, P400, P800).
Что бы я сделал?
- Я бы бросил FreeNAS. Это не очень хорошее решение, и вы потеряете некоторые функции мониторинга платформы HP ProLiant. Формат ZFS на диске под FreeNAS тоже немного странный... FreeNAS был источником некоторых вопросовWTF ServerFault.
- Вместо этого лучше использовать ZFS-on-Linux или пакет устройств, который использует его. Проверьте бесплатную версию сообщества QuantaStor или ZetaVault.
Наконец, для такого масштаба оборудования имеет смысл просто использовать существующий контроллер HP Smart Array E200i.
- Если вы используете подход, ориентированный на ZFS, и контроллер с поддержкой JBOD или HBA, вам придется выделить диски для ОС, а также данные. Это потенциальная трата дискового пространства. Если вы подойдете к этому с разделами или срезами дисков, ваша конфигурация ZFS станет чрезвычайно сложной и сложной.
- E200i - это способный контроллер, и вы получите преимущество от кэша записи (если батарея RAID присутствует и исправна).
- Если вы действительно хотите использовать ZFS, вы можете сделать это поверх аппаратного RAID-контроллера. Я делаю это все время, чтобы обеспечить некоторые функции ZFS (снимки, сжатие и т. Д.), Сохраняя при этом простоту и гибкость мониторинга аппаратных массивов.
Контроллеры HP Smart Array можно настроить для предоставления нескольких логических дисков (блочных устройств) из группы дисков ("Массив"). В приведенном ниже примере я настроил E200i на сервере ML350 G5 с 4 SATA-дисками по 500 ГБ, чтобы обеспечить операционный диск на 72 ГБ и диски на 240 ГБ и 200 ГБ для использования в качестве отдельных zpools ZFS.
Smart Array E200i in Slot 0 (Embedded) (sn: QT8CMP3716 ) Internal Drive Cage at Port 1I, Box 1, OK Internal Drive Cage at Port 2I, Box 1, OK array A (SATA, Unused Space: 0 MB) logicaldrive 1 (72.0 GB, RAID 1+0, OK) logicaldrive 2 (240.0 GB, RAID 1+0, OK) logicaldrive 3 (200.0 GB, RAID 1+0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK) physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)
вывод состояния zpool
pool: vol1
state: ONLINE
scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan 1 09:19:21 2015
config:
NAME STATE READ WRITE CKSUM
vol1 ONLINE 0 0 0
cciss-3600508b1001037313620202020200007 ONLINE 0 0 0
errors: No known data errors
pool: vol2
state: ONLINE
scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan 1 09:49:35 2015
config:
NAME STATE READ WRITE CKSUM
vol2 ONLINE 0 0 0
cciss-4542300b6103731362020202067830007 ONLINE 0 0 0