Как расширить массив RAID5 с помощью storcli?
Я только что купил новый диск. Как расширить существующий массив RAID без потери данных?
1 ответ
Если вы допустили ошибку, вы можете потерять все свои данные. Резервное копирование в первую очередь. Тогда продолжай.
использование storcli /c0 show
чтобы увидеть, какие диски и тома у вас есть. TOPOLOGY
Стол - хорошее начало:
TOPOLOGY :
========
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
----------------------------------------------------------------------------
0 - - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 0 252:0 10 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 1 252:1 9 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 2 252:2 11 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 3 252:3 8 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 4 252:4 12 DRIVE Onln N 2.728 TB dflt N N none - N
----------------------------------------------------------------------------
Это показывает, какие диски уже находятся в массиве RAID. У меня только один массив RAID (Arr
) с удостоверением личности 0
,
PD LIST
показывает вам диски:
PD LIST :
=======
--------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
--------------------------------------------------------------------------------
252:0 10 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:1 9 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:2 11 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:3 8 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:4 12 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:6 14 GHS - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
252:7 13 UGood - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
--------------------------------------------------------------------------------
Недавно добавленный диск должен отображаться как UGood
(ненастроенный хорошо). В примере это диск 13
в слоте 7
вложения 252
,
Чтобы добавить диск в массив RAID:
storcli /c0/v0 start migrate type=raid5 option=add drives=252:13
/c0
это контроллер, /v0
это том RAID (см. TOPOLOGY
выше или VD LIST
) изменить, start migrate
команда для выдачи, type=raid5
означает "держать это RAID5", мы хотим добавить диск (option=add
) а также drives
список дисков для добавления в форму EID:Slt
(увидеть PD LIST
).
Процесс может занять несколько дней. Вы можете продолжать использовать файловую систему (и) на томе RAID, пока контроллер выполняет работу в фоновом режиме. Вы даже можете перезагрузить сервер, контроллер просто продолжит с того места, где он был.
Чтобы проверить прогресс, используйте storcli /c0/v0 show migrate
который напечатает что-то вроде:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate 38 In Progress 49 Minutes
-----------------------------------------------------------
Примечание: оценка далека; эти 49 минут были 3 часа в моем случае. Я чувствую, что эта первая оценка 2 дня 8 часов была намного более точной.
Когда миграция завершится, контроллер выполнит другую фоновую работу ("фоновая инициализация"). Не уверен, что это такое.
Когда это будет сделано, он напечатает:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate - Not in progress -
-----------------------------------------------------------
использование storcli /c0 show
чтобы увидеть новый размер вашего тома RAID:
VD LIST :
=======
--------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
--------------------------------------------------------------
0/0 RAID5 Optl RW Yes RWBD - OFF 10.914 TB data
--------------------------------------------------------------
^^^^^^
Я использую LVM для управления диском. pvscan
показывает, что размер диска не изменился:
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
^^^^^^^^
Время перезагрузки (по крайней мере, я не смог найти способ заставить Linux повторно сканировать диск).
По крайней мере, lsblk
теперь показывает правильный размер диска:
sdb 8:16 0 10,9T 0 disk
^^^^^
LVM до сих пор не может видеть это (pvscan
):
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
pvdisplay
дает более подробную информацию:
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 8,19 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2145791
Free PE 134655
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Мы можем проверить следующую операцию перед ее выполнением: pvresize --test -v /dev/sdb
TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
Using physical volume(s) on command line.
Test mode: Skipping archiving of volume group.
Resizing volume "/dev/sdb" to 23437770752 sectors.
Resizing physical volume /dev/sdb from 0 to 2861055 extents.
Updating physical volume "/dev/sdb"
Test mode: Skipping backup of volume group.
Physical volume "/dev/sdb" changed
1 physical volume(s) resized / 0 physical volume(s) not resized
Test mode: Wiping internal cache
Wiping internal VG cache
2861055
расширяет 4 MiB
переводит на 10.91 TiB
(2861055*4096/1024/1024/1024).
Изменить размер логического тома: pvresize -v /dev/sdb
Наконец, LVM видит новые возможности:
# pvdisplay
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 10,91 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2861055
Free PE 849919
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Теперь вы можете продолжать наращивать файловые системы в группе томов.