Как расширить массив RAID5 с помощью storcli?

Я только что купил новый диск. Как расширить существующий массив RAID без потери данных?

1 ответ

Если вы допустили ошибку, вы можете потерять все свои данные. Резервное копирование в первую очередь. Тогда продолжай.

использование storcli /c0 show чтобы увидеть, какие диски и тома у вас есть. TOPOLOGY Стол - хорошее начало:

TOPOLOGY :
========

----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT      Size PDC  PI SED DS3  FSpace TR 
----------------------------------------------------------------------------
 0 -   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   -   -        -   RAID5 Optl  N  10.914 TB dflt N  N   none N      N  
 0 0   0   252:0    10  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   1   252:1    9   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   2   252:2    11  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   3   252:3    8   DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
 0 0   4   252:4    12  DRIVE Onln  N   2.728 TB dflt N  N   none -      N  
----------------------------------------------------------------------------

Это показывает, какие диски уже находятся в массиве RAID. У меня только один массив RAID (Arr) с удостоверением личности 0,

PD LIST показывает вам диски:

PD LIST :
=======

--------------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model                Sp Type 
--------------------------------------------------------------------------------
252:0    10 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:1     9 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68AX9N0 U  -    
252:2    11 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:3     8 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:4    12 Onln   0 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 U  -    
252:6    14 GHS    - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
252:7    13 UGood  - 2.728 TB SATA HDD N   N  512B WDC WD30EFRX-68EUZN0 D  -    
--------------------------------------------------------------------------------

Недавно добавленный диск должен отображаться как UGood (ненастроенный хорошо). В примере это диск 13 в слоте 7 вложения 252,

Чтобы добавить диск в массив RAID:

storcli /c0/v0 start migrate type=raid5 option=add drives=252:13

/c0 это контроллер, /v0 это том RAID (см. TOPOLOGY выше или VD LIST) изменить, start migrate команда для выдачи, type=raid5 означает "держать это RAID5", мы хотим добавить диск (option=add) а также drives список дисков для добавления в форму EID:Slt (увидеть PD LIST).

Процесс может занять несколько дней. Вы можете продолжать использовать файловую систему (и) на томе RAID, пока контроллер выполняет работу в фоновом режиме. Вы даже можете перезагрузить сервер, контроллер просто продолжит с того места, где он был.

Чтобы проверить прогресс, используйте storcli /c0/v0 show migrate который напечатает что-то вроде:

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate          38 In Progress     49 Minutes                   
-----------------------------------------------------------

Примечание: оценка далека; эти 49 минут были 3 часа в моем случае. Я чувствую, что эта первая оценка 2 дня 8 часов была намного более точной.

Когда миграция завершится, контроллер выполнит другую фоновую работу ("фоновая инициализация"). Не уверен, что это такое.

Когда это будет сделано, он напечатает:

VD Operation Status :
===================

-----------------------------------------------------------
VD Operation Progress% Status          Estimated Time Left 
-----------------------------------------------------------
 0 Migrate   -         Not in progress -                   
-----------------------------------------------------------

использование storcli /c0 show чтобы увидеть новый размер вашего тома RAID:

VD LIST :
=======

--------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC      Size Name 
--------------------------------------------------------------
0/0   RAID5 Optl  RW     Yes     RWBD  -   OFF 10.914 TB data 
--------------------------------------------------------------
                                               ^^^^^^

Я использую LVM для управления диском. pvscan показывает, что размер диска не изменился:

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]
                              ^^^^^^^^

Время перезагрузки (по крайней мере, я не смог найти способ заставить Linux повторно сканировать диск).

По крайней мере, lsblk теперь показывает правильный размер диска:

sdb              8:16   0  10,9T  0 disk
                           ^^^^^

LVM до сих пор не может видеть это (pvscan):

PV /dev/sdb   VG data   lvm2 [8,19 TiB / 526,00 GiB free]

pvdisplay дает более подробную информацию:

  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               8,19 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2145791
  Free PE               134655
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

Мы можем проверить следующую операцию перед ее выполнением: pvresize --test -v /dev/sdb

  TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
    Using physical volume(s) on command line.
    Test mode: Skipping archiving of volume group.
    Resizing volume "/dev/sdb" to 23437770752 sectors.
    Resizing physical volume /dev/sdb from 0 to 2861055 extents.
    Updating physical volume "/dev/sdb"
    Test mode: Skipping backup of volume group.
  Physical volume "/dev/sdb" changed
  1 physical volume(s) resized / 0 physical volume(s) not resized
    Test mode: Wiping internal cache
    Wiping internal VG cache

2861055 расширяет 4 MiB переводит на 10.91 TiB (2861055*4096/1024/1024/1024).

Изменить размер логического тома: pvresize -v /dev/sdb

Наконец, LVM видит новые возможности:

# pvdisplay 
  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               data
  PV Size               10,91 TiB / not usable 3,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              2861055
  Free PE               849919
  Allocated PE          2011136
  PV UUID               vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg

Теперь вы можете продолжать наращивать файловые системы в группе томов.

Другие вопросы по тегам