iSCSI TGTD за производительность InfiniBand
Я только что настроил межсерверную связь 4x SDR InfiniBand между серверами, чтобы увеличить пропускную способность для внутреннего хранилища моих виртуальных машин, в частности, сервера базы данных. Я использую iSCSI с TGTD на CentOS 6, и я могу достичь скорости 6,45 Гбит / с, используя IPoIB при тестировании с iperf.
Мне удалось настроить инициатор iSCSI и настроить его так, чтобы я мог достичь скорости записи около 260 МБ / с на SSD. Тем не менее, это все еще не оптимальная скорость записи, учитывая, что я могу писать со скоростью около 500-600 МБ / с локально.
Параметры, которые я сейчас использую:
- MaxRecvDataSegmentLength 4194304
- MaxXmitDataSegmentLength 524288
- MaxBurstLength 4194304
- FirstBurstLength 262144
- MaxOutstandingUnexpectedPDUs = 0
- MaxOutstandingR2T = 1
- MaxCommands = 256
- QueueDepth = 128
У кого-нибудь был опыт настройки этого? Можно ли получить что-то выше этого с изменениями конфигурации? Даже используя RAID 0 на двух устройствах, я все равно могу достичь только той же пропускной способности, которую я ожидал бы выше.
1 ответ
Полученные результаты вполне ожидаемы при текущей настройке. Вы можете получить дополнительный прирост производительности с iser
транспортный режим.
Советы по настройке от README.iser
Цель:
./tgtadm --lld iser --mode target \
--op new --tid 1 --targetname "iqn.$(hostname).t1"
./tgtadm --lld iser --mode target \
--op bind --tid 1 --initiator-address ALL
./tgtadm --lld iser --mode logicalunit \
--op new --tid 1 --lun 1 \ --backing-store /dev/sde
--bstype rdwr
Инициатор:
iscsiadm -m discovery -t sendtargets -p $targe
iscsiadm -m node -p $targetip -T $targetname --op update \
-n node.transport_name -v iser
iscsiadm -m node -p $targetip -T $targetname --login
Связанный полезный вопрос SF: Настройте простое хранилище Infiniband Block (SRP или iSER).