Linkstation WXL: RAID исчез, /dev/md2 неактивен - как устранить неполадки
Сегодня у меня были проблемы с доступом к SMB-ресурсу на моей Linkstation. Мой NAS имеет два жестких диска, настроенных как raid0. этот рейд был смонтирован в /mnt/array1/intern - папку, которую мне не хватает.
Моя первая проблема, я действительно не знаю, где искать сообщения об ошибках.
Давайте начнем с /var/log/messages, он говорит:
/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.
Хорошо. Я погуглил это сообщение и попробовал следующее:
cat /proc/mdstat
md2 : inactive sda6[1](S)
1938311476 blocks super 1.2
md1 : active raid1 sda2[1]
4999156 blocks super 1.2 [2/1] [_U]
md10 : active raid1 sda5[1]
1000436 blocks super 1.2 [2/1] [_U]
md0 : active raid1 sda1[1]
1000384 blocks [2/1] [_U]
unused devices: <none>
ОК... из df -hi знаю, что md0 - мой загрузочный раздел, а md1 - корневой раздел. я полагаю, что md2 - мой пропавший рейд, но зачем raid10? Однако я попытался обновить конфигурацию mdadm и собрать рейды с помощью:
mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v
Это приводит к нескольким сообщениям об ошибках, например:
cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0
для sda, sda1, sda2, md/1, md/2 и сын вкл. Это около 50 строк, я не хочу размещать их все. Что я не понимаю, так это "неправильный uuid" - разве я недавно не добавил текущие UUID в mdadm.conf?
Вернуться к моим / var / log / messages я нашел скрипт. я попытался запустить их вручную, надеясь получить еще несколько сообщений об ошибках:
/etc/init.d/start_data_array.sh
Это дает мне целую кучу сообщений, самые важные из них - ИМХО:
mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument
Итак, проблема, которая у меня есть, насколько я знаю, что-то не так с моим массивом raid0 с именем md2.
Главный вопрос: что не так? Как мне активировать /dev/md2? (mdadm --detail /dev/md2 дает "устройство не активно?") Нужно ли мне заново создавать массив? Потерю ли я свои данные?
Ошибка в том, что это устройство не активно, мне кажется довольно общей, при поиске я нахожу много сообщений и советов, которые на самом деле не связаны с моей проблемой.
Любая помощь приветствуется, спасибо большое!
// ОБНОВИТЬ
Странно - для меня. Вот что говорит fdisk -l для / sda и / sda6:
root@OoompaLoompa:~# fdisk -l /dev/sda
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 243202 1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sda6 doesn't contain a valid partition table
/ sda6 не имеет таблицы разделов, потому что, я думаю, это сторона моего массива. / sda имеет таблицу разделов, но не суперблок:
mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda
Но это один из 2 ГБ HDD. Я действительно смущен. Это вывод --examine для обоих этих устройств:
/dev/sda1:
mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
Name : UNINSPECT-EMC36:2
Creation Time : Thu Oct 18 01:43:39 2012
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c
Update Time : Thu Oct 18 01:43:39 2012
Checksum : 5d34dcac - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing)
Я все еще в замешательстве. должен / sda быть загрузочным разделом? Я думаю, что решение состоит в том, чтобы каким-то образом воссоздать суперблок, а затем пересобрать /md2.
Стил, любая помощь высоко ценится:)
1 ответ
У вас есть два диска, объединенных в полосу raid0. Один диск /dev/sda и raid раздел /dev/sda6 выглядит нормально. Что случилось со вторым приводом? Я подозреваю, что второй диск поврежден. Это появляется, если вы запускаете... fdisk -l