iSCSI TGTD за производительность InfiniBand

Я только что настроил межсерверную связь 4x SDR InfiniBand между серверами, чтобы увеличить пропускную способность для внутреннего хранилища моих виртуальных машин, в частности, сервера базы данных. Я использую iSCSI с TGTD на CentOS 6, и я могу достичь скорости 6,45 Гбит / с, используя IPoIB при тестировании с iperf.

Мне удалось настроить инициатор iSCSI и настроить его так, чтобы я мог достичь скорости записи около 260 МБ / с на SSD. Тем не менее, это все еще не оптимальная скорость записи, учитывая, что я могу писать со скоростью около 500-600 МБ / с локально.

Параметры, которые я сейчас использую:

  • MaxRecvDataSegmentLength 4194304
  • MaxXmitDataSegmentLength 524288
  • MaxBurstLength 4194304
  • FirstBurstLength 262144
  • MaxOutstandingUnexpectedPDUs = 0
  • MaxOutstandingR2T = 1
  • MaxCommands = 256
  • QueueDepth = 128

У кого-нибудь был опыт настройки этого? Можно ли получить что-то выше этого с изменениями конфигурации? Даже используя RAID 0 на двух устройствах, я все равно могу достичь только той же пропускной способности, которую я ожидал бы выше.

1 ответ

Решение

Полученные результаты вполне ожидаемы при текущей настройке. Вы можете получить дополнительный прирост производительности с iser транспортный режим.

Советы по настройке от README.iser

Цель:

    ./tgtadm --lld iser --mode target \
             --op new --tid 1 --targetname "iqn.$(hostname).t1"
    ./tgtadm --lld iser --mode target \
             --op bind --tid 1 --initiator-address ALL
    ./tgtadm --lld iser --mode logicalunit \
             --op new --tid 1 --lun 1 \ --backing-store /dev/sde
             --bstype rdwr

Инициатор:

    iscsiadm -m discovery -t sendtargets -p $targe
    iscsiadm -m node -p $targetip -T $targetname --op update \
        -n node.transport_name -v iser
    iscsiadm -m node -p $targetip -T $targetname --login

Связанный полезный вопрос SF: Настройте простое хранилище Infiniband Block (SRP или iSER).

Другие вопросы по тегам