Linux Raid: мистическое устройство md_d
У меня есть 64-битный сервер Ubuntu Jaunty (ядро 2.6.28-17-сервер), установленный на двух дисках SATA (sdc и sde) в зеркальном RAID, это моя текущая конфигурация рейда:
cat / proc / mdstat Личности: [линейный] [многолучевой] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md5: активный raid1 sdd7[1] sdc7[0] 126953536 блоков [2/2] [UU] md2: активный raid1 sdd3[1] sdc3[0] 979840 блоков [2/2] [UU] md0: активный raid1 sdd1 [1] sdc1 [0] 96256 блоков [2/2] [UU] md4: активный raid1 sdd6[1] sdc6[0] 9767424 блоков [2/2] [UU] md3: активный raid1 sdd5[1] sdc5[0] 979840 блоков [2/2] [UU] md1: активный raid1 sdd2[1] sdc2[0] 1951808 блоков [2/2] [UU] неиспользуемые устройства: нет
# df -h Используемый размер файловой системы. Доступный. /dev/md4 9.2G 922M 7.9G 11% / tmpfs 490M 0 490M 0% /lib/init/rw варрун 490M 316K 490M 1% / вар / пробег варлок 490М 0 490М 0% / вар / блокировка Удев 490M 228K 490M 1% /dev tmpfs 490M 0 490M 0% /dev/shm lrm 490M 2,5M 488M 1% /lib/modules/2.6.28-17-server/volatile /dev/md0 89M 55M 30M 65% /boot /dev/md5 120G 96G 18G 85% / данные /dev/md2 942M 18M 877M 2% / т / мин /dev/md3 942M 186M 709M 21% /var
Пользователи быстро заполняют общий ресурс Samba / data, поэтому я добавил два дополнительных жестких диска (sda и sdb, они точно такого же типа и размера), так как я хотел создать из них еще одно зеркало, а затем подключил новое raid-устройство. внутри / данные.
Я предпринял шаги по созданию одного раздела Linux raid autodetect на каждом из новых дисков, убедившись, что они имеют одинаковый размер.
fdisk / dev / sda -l Диск / dev / sda: 122,9 ГБ, 122942324736 байт 255 головок, 63 сектора / дорожка, 14946 цилиндров Единицы = цилиндры 16065 * 512 = 8225280 байт Идентификатор диска: 0x000e2e78 Система Идентификатора начала и конца загрузки устройства / dev / sda1 1 14946 120053713+ fd Linux raid autodetect
fdisk / dev / sdb -l Диск / dev / sdb: 122,9 ГБ, 122942324736 байт 255 головок, 63 сектора / дорожка, 14946 цилиндров Единицы = цилиндры 16065 * 512 = 8225280 байт Идентификатор диска: 0x000ef08e Система Идентификатора начала и конца загрузки устройства /dev/sdb1 1 14946 120053713+ fd Linux raid autodetect
Затем я создал новое зеркало:
mdadm --create / dev / md6 --level = mirror --raid-devices = 2 / dev / sda1 / dev / sdb1
В этот момент я получил следующее предупреждение:
mdadm: / dev / sdb1 содержит файловую систему ext2fs size=120053712K mtime= сб 19 дек. 11:10:30 2009 Продолжить создание массива?
Это странно, так как я только что создал новый раздел, и у меня никогда не было созданной файловой системы, но в любом случае я продолжил и ждал окончания синхронизации.
Все вроде нормально
cat / proc / mdstat Личности: [линейный] [многолучевой] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md6: активный raid1 sdb1 [1] sda1 [0] 120053632 блоков [2/2] [UU] md5: активный raid1 sdd7[1] sdc7[0] 126953536 блоков [2/2] [UU] md2: активный raid1 sdd3[1] sdc3[0] 979840 блоков [2/2] [UU] md4: активный raid1 sdc6 [0] sdd6 [1] 9767424 блоков [2/2] [UU] md3: активный raid1 sdc5[0] sdd5[1] 979840 блоков [2/2] [UU] md1: активный raid1 sdc2 [0] sdd2 [1] 1951808 блоков [2/2] [UU] md0: активный raid1 sdc1 [0] sdd1 [1] 96256 блоков [2/2] [UU] неиспользуемые устройства: нет
mdadm - деталь / dev / md6 / DEV / md6: Версия: 00.90 Время создания: суббота, 19 декабря 11:33:31 2009 Уровень рейда: raid1 Размер массива: 120053632 (114,49 ГБ, 122,93 ГБ) Используемый размер Dev: 120053632 (114,49 ГиБ 122,93 ГБ) Рейдовые устройства: 2 Всего устройств: 2 Предпочитаемый несовершеннолетний: 6 Постоянство: Суперблок является постоянным Время обновления: сб 19 дек 12:24:14 2009 Состояние: чистое Активные устройства: 2 Рабочие устройства: 2 Неисправные устройства: 0 Запасные устройства: 0 UUID: b901925f: b5ca90e0: afcf3cfb: 09b88def (локально для хоста szerver.mtvsz.local) События: 0.4 Номер майор минор 0 8 1 0 активная синхронизация /dev/sda1 1 8 17 1 активная синхронизация / dev / sdb1
Но после перезагрузки возникает проблема:
cat / proc / mdstat Личности: [линейный] [многолучевой] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md_d6: неактивный sdb1[1](S) 120053632 блоков md3: активный raid1 sdc5[0] sdd5[1] 979840 блоков [2/2] [UU] md5: активный raid1 sdc7[0] sdd7[1] 126953536 блоков [2/2] [UU] md2: активный raid1 sdc3[0] sdd3[1] 979840 блоков [2/2] [UU] md1: активный raid1 sdd2[1] sdc2[0] 1951808 блоков [2/2] [UU] md0: активный raid1 sdd1 [1] sdc1 [0] 96256 блоков [2/2] [UU] md4: активный raid1 sdd6[1] sdc6[0] 9767424 блоков [2/2] [UU] неиспользуемые устройства: нет
ls / dev / md * / dev / md0 / dev / md2 / dev / md4 / dev / md_d6 / dev / md_d6p2 / dev / md_d6p4 / dev / md1 / dev / md3 / dev / md5 / dev / md_d6p1 / dev / md_d6p3
Итак, мой вопрос: что, черт возьми, это с md_d6 и его разделами?
1 ответ
Хорошо, похоже это ошибка mdadm, или я пропустил ручной шаг. После выдачи этой команды
mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.conf
и перезагрузка кажется, что массив рейдов теперь в порядке. Тупой баг:)