Предложения SAN для ESX?
Теперь мне нужно начать планировать замену нашего основного кластера ESX. Реализация будет примерно в декабрьское время, но, похоже, не так уж далеко.
На данный момент у меня есть пара хостов ESX, одноядерный Dell PE2950 с 24 ГБ ОЗУ каждый с двумя FC HBA, проходящими через пару коммутаторов в Dell/EMC AX4.
Сейчас у меня около 17 ТБ сырой памяти, и из-за довольно простого дискового пула / виртуального диска AX4 работает, что приводит к некоторым потерям, но, как и в любом другом бизнесе, нам потребуется только больше памяти.
У нас есть ряд виртуальных машин, начиная с нашего основного файлового сервера, Microsoft SQL Server, Exchange Server, а также множества небольших виртуальных машин для определенных ролей, WSUS, антивирус, печать и т. Д.
Мы большой участок с оптоволоконным кабелем повсюду, и наше непосредственное "удаленное" местоположение - это еще одно здание, расположенное в паре миль от нас, с оптоволоконным каналом 10 Гбит / с между ними.
Я хотел бы в конечном итоге получить "умные" моментальные снимки уровня SAN и репликацию между блоками на обоих концах оптоволокна либо всего, либо выбранных LUN.
Мне не нужно мгновенное переключение при сбое, я хотел бы просто находиться в таком положении, чтобы, если одна комната была уничтожена, я мог запустить и запустить (не обязательно все) в другом месте в разумном (не SLA) г) количество времени.
Я был бы очень признателен за предложения о том, на что обратить внимание при замене основного кластера /SAN.
Сейчас мои главные соперники - Equallogic и HP Lefthand P4000.
Я бы добавил комментарий, но он не позволил мне набрать достаточно текста, так что...
Мы используем Exchange и SQL, но их использование довольно низкое. В настоящее время мы находимся на Exchange 2003, но через несколько месяцев я надеюсь, что мы будем на Exchange 2010, поэтому требования к вводу-выводу хранилища должны немного упасть.
Прямо сейчас у нас есть микс в AX4 7,2 тыс. SATA и 10 тыс. И 15 тыс. SAS. AX$ - это наше первое SAN и наше первое упражнение по использованию ESX, и, честно говоря, я подозреваю, что я немного переборщил со спецификациями дисков.
Наш самый загруженный период - это окно резервного копирования, и я проводил некоторые измерения, по общему признанию, грубые, и кажется, что мы видим в среднем около 1400 IOPS - как вы говорите, основным ограничением может быть NIC на нашем файловом сервере, который составляет 1 Гбит / с vNIC (файловый сервер является виртуальной машиной).
Я не думал искать в графическом интерфейсе коммутатора метрики производительности, но я увижу, что я могу найти (это Brocade 200E, не перепрограммированный или что-то еще).
Мне нужно немного разобраться в том, как работают драйверы MPIO для разных продуктов. Насколько я понимаю с EQL, он открывает несколько соединений даже с одним и тем же iSCSI LUN - не уверен, сможет ли это сделать LeftHand или "1 LUN = 1 Гбит / с, максимальная пропускная способность"?
Когда придет время (около декабря), мы, очевидно, начнем с последней стабильной / поддерживаемой версии vSphere.
Что касается 10GigE, мне действительно нравится, как это звучит, однако к тому времени, когда вы учитываете избыточность, я не могу помочь, но думаю, что это будет действительно чертовски дорого, и отчасти проблема заключается в том, что пока мы не пытаемся дешево, у меня есть ограничение на то, что я могу потратить.
1 ответ
Внедрение Exchange и MSSQL в ESX означает, что в вашем кластере есть несколько серьезных пользователей хранилищ, и все, что нужно для хранилища, нужно поддерживать. Вы используете AX4 с оптоволоконным кабелем и, очевидно, идете в ногу со временем, но вы не упоминаете, какие у вас диски (SAS, SATA, 7.2K RPM, 15 000 RPM) или сколько у вас есть.
Один шаг, на который я бы внимательно посмотрел, - это пиковая скорость передачи с устройства хранения. Коммутаторы FibreChannel должны иметь такую возможность. В прошлый раз, когда я смотрел, коммутаторы Dell FC были переименованы в устройства Brocade, и я знаю, что у Brocade есть "монитор производительности" в графическом интерфейсе на основе Java. Если ваш максимальный уровень ввода-вывода (который может быть во время резервного копирования) составляет менее 1 ГБ, тогда система на основе iSCSI в порядке. Если он достигает пика более 1 Гб, вам нужно позаботиться о том, чтобы ваши самые большие генераторы ввода / вывода физически размещались в разных блоках iSCSI. FC может разгоняться до 4Gb, где GigE равен 1Gb.
Знание того, сколько ввода-вывода хранения генерируют ваши узлы ESX, является ключом к поиску наиболее подходящего решения на основе Ethernet. Если пиковое число операций ввода-вывода превышает 1 ГБ, вам может понадобиться использовать NIC-соединение для поддержания пропускной способности, но имейте в виду, что максимальная пропускная способность между парами IP по-прежнему равна GigE с NIC-связью. 10GigE может это исправить, но я уверен, что эти карты еще не существуют в серверном пространстве, и я уверен, что они еще не существуют для LeftHand (хотя это и произойдет!). Убедитесь, что ваши большие потребители ввода-вывода (вероятно, база данных и Exchange во время резервного копирования) находятся на разных узлах, общаясь с разными узлами Equilogic/LeftHand, и у вас все должно быть в порядке.
Что касается Equilogic vs LeftHand, когда у нас была полная пресса суда 12 месяцев назад, LeftHand была действительно убедительной перспективой. У нас была презентация Equilogic примерно за неделю до объявления о слиянии, поэтому мы были хорошо знакомы с обеими линейками продуктов. Продукт LeftHand был технически превосходен и отлично справлялся с виртуальной сетью хранения. Идея встроенной репликации (которую могут сделать оба) была достаточной, чтобы заставить нас улыбнуться ожидаемому восторгу.