mdadm RAID5 неактивен и диск отсутствует

У меня есть RAID5, настроенный с помощью mdadm, и мне пришлось заменить один сломанный жесткий диск. Некоторое время это работало, но через пару недель по какой-то причине стало неактивным.

Я почти уверен, что отсутствующий диск — это тот же диск, который я заменил:

      # sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 3
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 3

              Name : REMOTENAME:0  (local to host REMOTENAME)
              UUID : 59f98bf3:274707c2:2d79bc60:f0217294
            Events : 212054

    Number   Major   Minor   RaidDevice

       -       8       64        -        /dev/sde
       -       8       32        -        /dev/sdc
       -       8       48        -        /dev/sdd

Следующий,/proc/mdstatсодержит:

      Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdc[1](S) sde[4](S) sdd[2](S)
      23441683464 blocks super 1.2
       
unused devices: <none>

Состояние жесткого диска кажется в порядке, ошибок нет.smartctlдля .

Наконец,mdadm --examine /dev/sdbдает:

      /dev/sdb:
   MBR Magic : aa55
Partition[0] :   4294967295 sectors at            1 (type ee)

РЕДАКТИРОВАТЬ: Спасибо всем за ваши комментарии! На самом деле я не тот, кто настраивал этот RAID, а скорее счастливчик, унаследовавший ответственность за него. С удовольствием прислушаюсь к вашему совету при следующей настройке :)

На самом деле вы правы, теперь там написано RAID0. Я нашел текстовый файл, в котором сохранил выводmdadm --detail /dev/md0что может быть познавательным?

      # sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Jul 24 13:22:48 2018
        Raid Level : raid5
        Array Size : 23441682432 (22355.73 GiB 24004.28 GB)
     Used Dev Size : 7813894144 (7451.91 GiB 8001.43 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent
     Intent Bitmap : Internal
       Update Time : Mon Sep  4 07:36:57 2023
             State : clean, checking
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0
            Layout : left-symmetric
        Chunk Size : 512K
Consistency Policy : bitmap
      Check Status : 77% complete
              Name : REMOTENAME:0  (local to host REMOTENAME)
              UUID : 59f98bf3:274707c2:2d79bc60:f0217294
            Events : 212051
    Number   Major   Minor   RaidDevice State
       5       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       4       8       64        3      active sync   /dev/sde

Возможно, связано это с тем, что я нашел некоторые отличия жесткого диска от остальных рейдов:

      # sudo lshw -class disk
...
  *-disk
       description: ATA Disk
       product: WDC WD80EFZZ-68B
       vendor: Western Digital
       physical id: 0.0.0
       bus info: scsi@1:0.0.0
       logical name: /dev/sdb
       version: 0A81
       serial: ---
       size: 7452GiB (8001GB)
       capabilities: gpt-1.00 partitioned partitioned:gpt
       configuration: ansiversion=5 guid=a931e3f0-c80c-447b-b4f6-e3a06b9b51a7 logicalsectorsize=512 sectorsize=4096
  *-disk
       description: ATA Disk
       product: WDC WD80EFZX-68U
       vendor: Western Digital
       physical id: 0.0.0
       bus info: scsi@2:0.0.0
       logical name: /dev/sdc
       version: 0A83
       serial: ---
       size: 7452GiB (8001GB)
       configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
...

Раньше не былоpartitionedинформация на старом диске:

        *-disk
       description: ATA Disk
       product: WDC WD80EFZX-68U
       vendor: Western Digital
       physical id: 0.0.0
       bus info: scsi@1:0.0.0
       logical name: /dev/sdb
       version: 0A83
       serial: ---
       size: 7452GiB (8001GB)
       configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096

РЕДАКТИРОВАТЬ2:

Поскольку массив был неактивен, я успешно активировал его, используяsudo mdadm --run /dev/md0. Вы правы, что каким-то образом, возможно, после перезагрузки, выпало из массива/удалено?...

      # sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Jul 24 13:22:48 2018
        Raid Level : raid5
        Array Size : 23441682432 (22355.73 GiB 24004.28 GB)
     Used Dev Size : 7813894144 (7451.91 GiB 8001.43 GB)
      Raid Devices : 4
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Nov  2 14:10:31 2023
             State : clean, degraded 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : REMOTENAME:0  (local to host REMOTENAME)
              UUID : 59f98bf3:274707c2:2d79bc60:f0217294
            Events : 212077

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       4       8       64        3      active sync   /dev/sde

Теперь у меня вопрос: стоит ли мне переформатировать диск на/dev/sdbпрежде чем снова добавить его в массив?

И бонусный вопрос, как уже отмечалось: можете ли вы безопасно преобразовать существующий RAID5, например, в RAID1 или RAID6?

0 ответов

Другие вопросы по тегам