Исправлен сбойный / поврежденный RAID, когда данные не повреждены, но диск удален из массива (btrfs/Synology)
Том на моем Расширении Synology упал и не может восстановиться самостоятельно.
Диск, вероятно, в порядке. Это происходит после очистки устройства от пыли. До этого времени том тоже был в порядке, так что я думаю, что это не из-за неисправного диска. При запуске после очистки система сбросила один диск, и это текущее состояние. Что странно, он показывает громкость как CRASHED вместо DEGRADED.
Панель рабочего стола на Synology показывает, что том существует, но используется пространство 0 байт и доступно 1 байт, и он не виден в общих папках.
Я использую Synology DS719+ (DSM 6.2-23739) с расширением DX513, которое заполнено 5x 10 ТБ IronWolfs с 1 томом SHR (отказоустойчивость одного диска, BTRFS) за пределами отдельного тома, на двух дисках на основном устройстве (DS),
Диспетчер хранилища показывает, что один диск не инициализирован. Я запустил SMART и IronWolf Health Test на нем, и что касается инструмента, то диск в порядке.
Журнал диспетчера хранилища показывает, что произошла ошибка ввода-вывода.
Я обнаружил похожую проблему на форуме Synology - [здесь][1]
Как @voodooking* посоветовал мне бежать:
fdisk -l
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md4 : active raid1 sdb7[2] sda7[1]
4883750912 blocks super 1.2 [2/2] [UU]
md3 : active raid1 sda6[3] sdb6[2]
488366912 blocks super 1.2 [2/2] [UU]
md2 : active raid1 sdb5[2] sda5[3]
483555456 blocks super 1.2 [2/2] [UU]
md6 : active raid5 sdca5[3] sdcd5[4] sdcc5[5] sdcb5[1]
39046395904 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
md1 : active raid1 sda2[0] sdb2[1]
2097088 blocks [2/2] [UU]
md0 : active raid1 sda1[1] sdb1[0]
2490176 blocks [2/2] [UU]
Чтобы найти проблемный диск и сопоставить его с серийным номером из Storage Manager, я запустил:
hdparm -I /dev/sd???
mdadm --detail /dev/md6
/dev/md6:
Version : 1.2
Creation Time : Fri Sep 2 14:35:22 2016
Raid Level : raid5
Array Size : 39046395904 (37237.54 GiB 39983.51 GB)
Used Dev Size : 9761598976 (9309.39 GiB 9995.88 GB)
Raid Devices : 5
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Mar 3 19:41:51 2019
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : Blade:6 (local to host Blade)
UUID : 5c453f27:136ff82b:1b81964a:19d75973
Events : 478796
Number Major Minor RaidDevice State
3 68 229 0 active sync /dev/sdca5
1 68 245 1 active sync /dev/sdcb5
5 69 5 2 active sync /dev/sdcc5
4 69 21 3 active sync /dev/sdcd5
- 0 0 4 removed
и обнаружил, что в моем случае не инициализированный раздел - /dev/sdce5, поэтому я запустил:
mdadm --manage /dev/md6 --add /dev/sdce5
Я проверяю статус с помощью:
cat /proc/mdstat
[>....................] recovery = 0.0% (0/9761598976) finish=274544971.2min speed=0K/sec
И через минуту или около того все закончилось (что-то пошло не так). Я снова запускаю mdstat, и он показывал 5 дисков, но с (F) рядом с добавленным диском. Я перезагрузился, и диск все еще был удален из массива и остался в не инициализированном состоянии.
Диспетчер хранилища показывает параметр восстановления, но с размером тома 1 байт я не знаю, что будет результатом такого восстановления (перестроения) - он наверняка уничтожит данные с неинициализированного диска, который может быть снова присоединен некоторыми командами без перестраивать. Более того, такая перестройка займет 10 дней и, возможно, не потребует лишней нагрузки на диск.
Без этого диска том SHR с отказоустойчивостью одного диска должен работать нормально и находиться в состоянии DEGRADED, что может быть не так?
Как привести этот том в нормальное состояние?