mdadm RAID5 неактивен и диск отсутствует
У меня есть RAID5, настроенный с помощью mdadm, и мне пришлось заменить один сломанный жесткий диск. Некоторое время это работало, но через пару недель по какой-то причине стало неактивным.
Я почти уверен, что отсутствующий диск — это тот же диск, который я заменил:
# sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : REMOTENAME:0 (local to host REMOTENAME)
UUID : 59f98bf3:274707c2:2d79bc60:f0217294
Events : 212054
Number Major Minor RaidDevice
- 8 64 - /dev/sde
- 8 32 - /dev/sdc
- 8 48 - /dev/sdd
Следующий,/proc/mdstat
содержит:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdc[1](S) sde[4](S) sdd[2](S)
23441683464 blocks super 1.2
unused devices: <none>
Состояние жесткого диска кажется в порядке, ошибок нет.smartctl
для .
Наконец,mdadm --examine /dev/sdb
дает:
/dev/sdb:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
РЕДАКТИРОВАТЬ: Спасибо всем за ваши комментарии! На самом деле я не тот, кто настраивал этот RAID, а скорее счастливчик, унаследовавший ответственность за него. С удовольствием прислушаюсь к вашему совету при следующей настройке :)
На самом деле вы правы, теперь там написано RAID0. Я нашел текстовый файл, в котором сохранил выводmdadm --detail /dev/md0
что может быть познавательным?
# sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 24 13:22:48 2018
Raid Level : raid5
Array Size : 23441682432 (22355.73 GiB 24004.28 GB)
Used Dev Size : 7813894144 (7451.91 GiB 8001.43 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Sep 4 07:36:57 2023
State : clean, checking
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Check Status : 77% complete
Name : REMOTENAME:0 (local to host REMOTENAME)
UUID : 59f98bf3:274707c2:2d79bc60:f0217294
Events : 212051
Number Major Minor RaidDevice State
5 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
4 8 64 3 active sync /dev/sde
Возможно, связано это с тем, что я нашел некоторые отличия жесткого диска от остальных рейдов:
# sudo lshw -class disk
...
*-disk
description: ATA Disk
product: WDC WD80EFZZ-68B
vendor: Western Digital
physical id: 0.0.0
bus info: scsi@1:0.0.0
logical name: /dev/sdb
version: 0A81
serial: ---
size: 7452GiB (8001GB)
capabilities: gpt-1.00 partitioned partitioned:gpt
configuration: ansiversion=5 guid=a931e3f0-c80c-447b-b4f6-e3a06b9b51a7 logicalsectorsize=512 sectorsize=4096
*-disk
description: ATA Disk
product: WDC WD80EFZX-68U
vendor: Western Digital
physical id: 0.0.0
bus info: scsi@2:0.0.0
logical name: /dev/sdc
version: 0A83
serial: ---
size: 7452GiB (8001GB)
configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
...
Раньше не былоpartitioned
информация на старом диске:
*-disk
description: ATA Disk
product: WDC WD80EFZX-68U
vendor: Western Digital
physical id: 0.0.0
bus info: scsi@1:0.0.0
logical name: /dev/sdb
version: 0A83
serial: ---
size: 7452GiB (8001GB)
configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
РЕДАКТИРОВАТЬ2:
Поскольку массив был неактивен, я успешно активировал его, используяsudo mdadm --run /dev/md0
. Вы правы, что каким-то образом, возможно, после перезагрузки, выпало из массива/удалено?...
# sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 24 13:22:48 2018
Raid Level : raid5
Array Size : 23441682432 (22355.73 GiB 24004.28 GB)
Used Dev Size : 7813894144 (7451.91 GiB 8001.43 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Nov 2 14:10:31 2023
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Name : REMOTENAME:0 (local to host REMOTENAME)
UUID : 59f98bf3:274707c2:2d79bc60:f0217294
Events : 212077
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
4 8 64 3 active sync /dev/sde
Теперь у меня вопрос: стоит ли мне переформатировать диск на/dev/sdb
прежде чем снова добавить его в массив?
И бонусный вопрос, как уже отмечалось: можете ли вы безопасно преобразовать существующий RAID5, например, в RAID1 или RAID6?