SAS Expanders против Direct Attached (SAS)?

У меня есть хранилище с 2 объединительными платами. Одна объединительная плата вмещает 24 диска, одна объединительная плата вмещает 12 дисков. Каждая объединительная плата независимо подключается к порту SFF-8087 (4 канала /12 Гбит) к карте raid.

Вот где действительно возникает мой вопрос. Может или как легко перегрузить объединительную плату? Все диски в машине - это диски WD RE4 WD1003FBYX (черные) со средней скоростью записи 115 МБ / с и средней скоростью чтения 125 МБ / с.

Я знаю, что все будет по-разному в зависимости от рейда или файловой системы, которую мы поставили поверх этого, но похоже, что объединительная плата на 24 диска с одним разъемом SFF-8087 должна быть способна перегрузить шину до точки, которая может фактически замедлить ее?

Исходя из моей математики, если бы у меня был RAID0 на всех 24 дисках и я попросил большой файл, я должен теоретически получить 24*115 МБ / с, что соответствует 22,08 ГБ / с общей пропускной способности.

Либо я в замешательстве, либо эта объединительная панель ужасно спроектирована - по крайней мере, для среды, основанной на производительности.

Я смотрю на переключение на модель, где каждый диск имеет свой собственный канал от объединительной платы (и новый HBA или рейд-карта).

РЕДАКТИРОВАТЬ: больше деталей

Мы использовали как чистый Linux (Centos), открытый солярис, программный рейд, аппаратный рейд, EXT3/4, ZFS.

Вот несколько примеров использования Bonnie ++

4-х дисковый RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
194MB/s   19%    92MB/s    11%    200MB/s   8%     310/sec  
194MB/s   19%    93MB/s    11%    201MB/s   8%     312/sec  
--------- ----   --------- ----   --------- ----   ---------
389MB/s   19%    186MB/s   11%    402MB/s   8%     311/sec

8 Диск RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
324MB/s   32%    164MB/s   19%    346MB/s   13%    466/sec  
324MB/s   32%    164MB/s   19%    348MB/s   14%    465/sec  
--------- ----   --------- ----   --------- ----   ---------
648MB/s   32%    328MB/s   19%    694MB/s   13%    465/sec

12 Диск RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
377MB/s   38%    191MB/s   22%    429MB/s   17%    537/sec  
376MB/s   38%    191MB/s   22%    427MB/s   17%    546/sec  
--------- ----   --------- ----   --------- ----   ---------
753MB/s   38%    382MB/s   22%    857MB/s   17%    541/sec

Сейчас 16 дисков RAID-0, становится интересно

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
359MB/s   34%    186MB/s   22%    407MB/s   18%    1397/sec 
358MB/s   33%    186MB/s   22%    407MB/s   18%    1340/sec 
--------- ----   --------- ----   --------- ----   ---------
717MB/s   33%    373MB/s   22%    814MB/s   18%    1368/sec

20 Диск RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
371MB/s   37%    188MB/s   22%    450MB/s   19%    775/sec  
370MB/s   37%    188MB/s   22%    447MB/s   19%    797/sec  
--------- ----   --------- ----   --------- ----   ---------
741MB/s   37%    376MB/s   22%    898MB/s   19%    786/sec

24 дисковых RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
347MB/s   34%    193MB/s   22%    447MB/s   19%    907/sec  
347MB/s   34%    192MB/s   23%    446MB/s   19%    933/sec  
--------- ----   --------- ----   --------- ----   ---------
694MB/s   34%    386MB/s   22%    894MB/s   19%    920/sec

(кто-нибудь начинает видеть образец здесь?):-)

28 Диск RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
358MB/s   35%    179MB/s   22%    417MB/s   18%    1105/sec 
358MB/s   36%    179MB/s   22%    414MB/s   18%    1147/sec 
--------- ----   --------- ----   --------- ----   ---------
717MB/s   35%    359MB/s   22%    832MB/s   18%    1126/sec 

32 диска RAID-0, ZFS

WRITE     CPU    RE-WRITE  CPU    READ      CPU    RND-SEEKS
354MB/s   35%    190MB/s   22%    420MB/s   18%    1519/sec 
354MB/s   35%    190MB/s   22%    418MB/s   18%    1572/sec 
--------- ----   --------- ----   --------- ----   ---------
708MB/s   35%    380MB/s   22%    838MB/s   18%    1545/sec 

Больше деталей:

Вот точная единица измерения:

http://www.supermicro.com/products/chassis/4U/847/SC847E16-R1400U.cfm

3 ответа

Решение

Не зная, какое именно оборудование вы используете, максимум, что вы можете получить через два SAS SFF-8087, составляет 24 Гбит / с или 3 Гбит / с; но многие комбинации контроллеров и расширителей на самом деле не будут правильно использовать все 4 канала в SFF-8087, и в итоге вы получите примерно одну ссылку (0,75 Гбит / с).

Учитывая ваши показатели производительности, я бы рискнул предположить, что последний случай.

Я думал о том, чтобы получить этот же аппарат, но теперь, учитывая производительность, которую вы получаете, я лучше подумал об этом дважды.

С другой стороны, какой контроллер рейда вы используете? Потому что я читал где-то еще, что эти объединительные платы LSI не слишком хорошо работают с рейдовыми картами без LSI.

Относительно теоретической производительности: Для объединительной платы на 24 диска у вас должно быть (SAS2) 6 Гбит x 4 = 24 Гбит, что составляет 1 Гбит на диск. Используя ту же математику, вы должны получить 2 Гбит на диск с другой объединительной платой. Теперь 1 Гбит на диск означает... 80 МБ / с? Таким образом, 2Gbit будет более чем достаточно, чтобы диск стал узким местом. Так:

(80 МБ / с * 24) + ( 125 МБ / с * 12) = 3420 МБ / с

Я знаю, что это только теоретически, и никто не ожидал бы, что эти цифры в реальном мире... но вы получаете ~10%. Вам лучше проверить эту проблему с Supermicro или LSI, потому что это очень странно.

Вы указываете среднюю скорость диска для высокопоследовательных операций в наилучших условиях. Если ваша рабочая нагрузка случайная, говорите намного хуже (я это имею в виду).

Кабели SFF-8087 имеют только 4 канала, и вы можете существенно перегружать их с помощью чтения / записи 4 дисков на максимальной скорости. Дело в том, что вы обычно не делаете это постоянно, и поэтому SuperMicro использует расширители LSI в версиях E1/E2 их шасси.

Если вам все время нужна максимальная производительность, вам необходимо подключить каждый диск к одному порту SAS на ваших контроллерах. Большинство контроллеров имеют 4, 8 или 16 портов, поэтому вам нужно посчитать и добавить дополнительные контроллеры для поддержки 36 дисков. Шасси SuperMicro в версии TQ позволяет вам иметь такой доступ к вашим дискам.

Необработанная производительность IOPS варьируется в зависимости от того, на каком устройстве вы работаете. LBA HBA обычно имеют спецификации>250 тыс. Операций ввода-вывода в секунду, в то время как диски SATA будут работать со скоростью 100–120, SAS немного больше и средние твердотельные накопители Intel 3000 IOPS (в значительной степени зависят от размера вашего блока).

Вы должны понимать рабочую нагрузку, которую вы будете выполнять на этом компьютере, иначе вы будете чрезмерно предоставлять неправильные ресурсы. Сосредоточение на сырой последовательной скорости с каждым диском, имеющим свой собственный канал к контроллеру, не поможет, если ваша рабочая нагрузка очень случайна и вам нужно больше IOPS от диска /SSD.

Другие вопросы по тегам