Блеск - проблемы с простой настройкой

Проблема: я пытаюсь оценить (возможное) использование блеска для нашей группы. С этой целью я пытался создать простую систему для изучения нюансов. Кажется, я не могу пройти тест 'llmount.sh' с какой-либо степенью успеха.

Что я сделал: Каждая система (одноразовые ПК с 70 ГБ HD, 2 ГБ ОЗУ) отформатирована в CentOS 6.2. Затем я обновляю все и устанавливаю ядро ​​Luster с сайта downloads.whamcloud.com и добавляю различные (подходящие) файлы RPM для luster и e2fs. Системы перезагружаются и тестируются с помощью 'llmount.sh' (а затем очищаются с помощью 'llmountcleanup.sh'). Все хорошо в этой точке.

Сначала я создаю систему MDS/MDT через:

/usr/sbin/mkfs.lustre --mgs --mdt --fsname=lustre --device-size=200000 --param sys.timeout=20 --mountfsoptions=errors=remount-ro,user_xattr,acl --param lov.stripesize=1048576 --param lov.stripecount=0 --param mdt.identity_upcall=/usr/sbin/l_getidentity --backfstype ldiskfs --reformat /tmp/lustre-mdt1

а потом

mkdir -p /mnt/mds1    
mount -t lustre -o loop,user_xattr,acl  /tmp/lustre-mdt1 /mnt/mds1

Далее я беру 3 системы и создаю 2Gb циклическое монтирование через

/usr/sbin/mkfs.lustre --ost --fsname=lustre --device-size=200000 --param sys.timeout=20 --mgsnode=lustre_MDS0@tcp --backfstype ldiskfs --reformat /tmp/lustre-ost1   


mkdir -p /mnt/ost1     
mount -t lustre -o loop  /tmp/lustre-ost1 /mnt/ost1    

Журналы на блоке MDT показывают, что блоки OSS подключаются. Все выглядит нормально.

Наконец, я создаю клиента и присоединяюсь к коробке MDT:

mkdir -p /mnt/lustre
mount -t lustre -o user_xattr,acl,flock luster_MDS0@tcp:/lustre /mnt/lustre    

Опять же, журнал в окне MDT показывает клиентское соединение. Кажется, чтобы быть успешным.

Вот где проблемы (как представляется) начинаются. Если я делаю 'df -h' на клиенте, он зависает после показа системных дисков. Если я пытаюсь создать файлы (через 'dd') на блеске, сеанс зависает, и задание не может быть убито. Перезагрузка клиента - единственное решение.

Если я делаю 'lctl dl' с клиента, это показывает, что найдены только 2/3 окна OST и 'UP'.

[root@lfsclient0 etc]# lctl dl   
0 UP mgc MGC10.127.24.42@tcp 282d249f-fcb2-b90f-8c4e-2f1415485410 5   
1 UP lov lustre-clilov-ffff880037e4d400 00fc176e-3156-0490-44e1-da911be9f9df 4   
2 UP lmv lustre-clilmv-ffff880037e4d400 00fc176e-3156-0490-44e1-da911be9f9df 4   
3 UP mdc lustre-MDT0000-mdc-ffff880037e4d400 00fc176e-3156-0490-44e1-da911be9f9df 5   
4 UP osc lustre-OST0000-osc-ffff880037e4d400 00fc176e-3156-0490-44e1-da911be9f9df 5   
5 UP osc lustre-OST0003-osc-ffff880037e4d400 00fc176e-3156-0490-44e1-da911be9f9df 5   

Выполнение lfs df на клиенте показывает:

[root@lfsclient0 etc]# lfs df  
UUID                   1K-blocks        Used   Available Use% Mounted on  
lustre-MDT0000_UUID       149944       16900      123044  12% /mnt/lustre[MDT:0]  
OST0000             : inactive device  
OST0001             : Resource temporarily unavailable  
OST0002             : Resource temporarily unavailable  
lustre-OST0003_UUID       187464       24764      152636  14% /mnt/lustre[OST:3]  

filesystem summary:       187464       24764      152636  14% /mnt/lustre  

Учитывая, что каждый блок OSS имеет 2Gb (петлевое) монтирование, я ожидал бы увидеть это в доступном размере.

В блоке MDS/MDT нет ошибок, указывающих на то, что несколько блоков OSS/OST были потеряны.

РЕДАКТИРОВАТЬ: каждая система имеет все другие системы, определенные в /etc/hosts, и записи в iptables для обеспечения доступа.

SO: Я явно делаю несколько ошибок. Какие-нибудь указатели относительно того, где начать исправлять их?

1 ответ

Решение

Это более чем вероятно приведет к проблеме с iptables.

All boxes in the array (MGS, OST, client) need to have unrestricted access to port 988 and any LNET devices.

Другие вопросы по тегам