Определение конфигурации программного RAID на сервере Ubuntu

У меня есть Ubuntu box, который был установлен администратором, которого сейчас нет со мной. У меня нет информации о том, как он настроил RAID, и нет опыта установки программного RAID в системах Linux.

Я хотел бы выяснить, "какая схема RAID фактически используется в системе?".

Установлено два пакета: dmraid и mdadm, поэтому они еще больше сбивают меня с толку.

Физическая машина имеет два одинаковых жестких диска по 1 ТБ в /dev/sda, /dev/sdb. Вот список различных команд, которые вам могут понадобиться...

Выход из dmraid -r:

/dev/sdb: isw, "isw_ffbjceeci", GROUP, ok, 1953525166 sectors, data@ 0
/dev/sda: isw, "isw_ffbjceeci", GROUP, ok, 1953525166 sectors, data@ 0

Выход из mdadm --detail --scan:

ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d10f206b:f0ccf4b7:ffedda3d:00dc2380

Выход из mdadm --detail /dev/md0:

/dev/md0:
        Version : 00.90
  Creation Time : Thu Apr  8 23:41:19 2010
     Raid Level : raid1
     Array Size : 964879808 (920.18 GiB 988.04 GB)
  Used Dev Size : 964879808 (920.18 GiB 988.04 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Jul 30 17:52:26 2012
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : d10f206b:f0ccf4b7:ffedda3d:00dc2380
         Events : 0.57178142

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1     252        1        1      active sync   /dev/block/252:1

Выход из fdisk -l:

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000cb9b2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1      120122   964879933+  fd  Linux raid autodetect
/dev/sda2          120123      121601    11880067+   5  Extended
/dev/sda5          120123      121601    11880036   fd  Linux raid autodetect

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000cb9b2

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1      120122   964879933+  fd  Linux raid autodetect
/dev/sdb2          120123      121601    11880067+   5  Extended
/dev/sdb5          120123      121601    11880036   fd  Linux raid autodetect

Disk /dev/md0: 988.0 GB, 988036923392 bytes
2 heads, 4 sectors/track, 241219952 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Выход из cat /etc/fstab:

# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    defaults        0       0
# / was on /dev/md0 during installation
UUID=0cf600bf-ec3e-4898-ae6b-743b40f1cde0 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md1 during installation
UUID=833dd62b-8127-48b6-affe-981b1236158c none            swap    sw              0       0

Таким образом, безопасно удалить один из dmraid или mdadm на лету? Если да, то какой из них следует удалить, чтобы удалить избыточную конфигурацию RAID?


Выход из cat /proc/mdstat:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 dm-1[1]
      964879808 blocks [2/1] [_U]

unused devices: <none>

Некоторые уточнения:

Поскольку текущая система в любом случае работает хорошо, нет необходимости срочно менять конфигурацию или удалять пакеты.

Но я собираюсь выполнить dist-upgrade с Ubuntu 10.04 до Ubunt 12.04, и я знаю, что есть некоторые изменения, такие как grub2, поэтому я хотел бы убедиться, что эта конфигурация не вызовет никаких проблем.

На всякий случай хочу узнать подробности этой конфигурации.


Выход из ls -al /dev/mapper:

ls -al /dev/mapper
total 0
drwxr-xr-x  2 root root     100 2012-05-04 10:02 .
drwxr-xr-x 15 root root    3540 2012-05-04 10:03 ..
crw-rw----  1 root root  10, 59 2012-05-04 10:03 control
brw-rw----  1 root disk 252,  0 2012-05-04 10:03 isw_ffbjceeci_Volume0
brw-rw----  1 root disk 252,  1 2012-05-04 10:03 isw_ffbjceeci_Volume01

2 ответа

Во-первых, у вас есть зеркало RAID 1 из двух дисков.

Во-вторых, если вы не можете определить это из того, что вы нам дали, я настоятельно рекомендую вам просто оставить все как есть и даже не думать об удалении или изменении конфигурации - если это работает, не трогайте его в принципе, Почему вы все равно думаете об этом?

Я бы поддержал то, что говорит Chopper3, но добавил бы, что, по-моему, ваше устройство RAID в настоящее время повреждено; то есть половина зеркала вышла из строя. Вам нужно понять, что происходит, и исправить это, или попросить кого-то сделать это, прежде чем другая половина выйдет из строя и ваш сервер умрет. Я определенно хотел бы исправить это перед обновлением ОС.

Тем не менее, выход proc/mdstat немного странно, по моему опыту. Можем ли мы получить вывод от ls -al /dev/mapper добавил к вопросу?

Изменить: мое слово, это необычно. Я никогда не видел, чтобы RAID-1 делал таким образом: кажется, что это зеркало md, одна половина которого является полностью работающим зеркалом dm, а другая половина отсутствует. Я должен отказаться от предоставления каких-либо дальнейших советов по этому вопросу, так как я озадачен, почему кто-то будет делать такие вещи, а DM Raid - не моя сфера деятельности.

Другие вопросы по тегам