Спасите Raid 1 с выделенного сервера
У меня есть выделенный сервер (Hetzner EX4). Однажды я перезагрузил сервер, и он не запустился. Служба поддержки рассказала мне, что один из жестких дисков был неисправен, и активировала систему восстановления (Linux). Мой сервер имеет 2 х 3 ТБ жесткого диска на Raid1 (почти уверен в этом!)
Итак, я предполагаю, что хотя бы один из дисков может быть пригоден для использования, но я понятия не имею, как получить данные с моего сервера. Я провел некоторые исследования и пытался использовать partimage (и сервер partimage), но, поскольку у меня нет понимания того, как диски и разделы работают в Linux, я не знаю, как получить данные с сервера.
Я даже не знаю, что я вижу, это диски, разделы или что!
Не уверен, но я думаю, что это может быть полезно:
root@rescue /dev # cd dev/
-bash: cd: dev/: No such file or directory
root@rescue /dev # dir
1-1 cpu full loop4 mouse1 ptyp2 ptype ram4 sda3 stderr tty16 tty27 tty38 tty49 tty6 ttyp4 ttyS0 vcs2 vga_arbiter
2-1 cpu_dma_latency fuse loop5 net ptyp3 ptypf ram5 sda4 stdin tty17 tty28 tty39 tty5 tty60 ttyp5 ttyS1 vcs3 vhost-net
2-1.4 disk hpet loop6 network_latency ptyp4 ram0 ram6 sda5 stdout tty18 tty29 tty4 tty50 tty61 ttyp6 ttyS2 vcs4 watchdog
2-1.6 event0 input loop7 network_throughput ptyp5 ram1 ram7 sdb tty tty19 tty3 tty40 tty51 tty62 ttyp7 ttyS3 vcs5 watchdog0
autofs event1 kmem loop-control null ptyp6 ram10 ram8 sdb1 tty0 tty2 tty30 tty41 tty52 tty63 ttyp8 urandom vcs6 xconsole
block event2 kmsg MAKEDEV port ptyp7 ram11 ram9 sdb2 tty1 tty20 tty31 tty42 tty53 tty7 ttyp9 usbmon0 vcsa zero
bsg event3 kvm mapper ppp ptyp8 ram12 random sdb3 tty10 tty21 tty32 tty43 tty54 tty8 ttypa usbmon1 vcsa1
btrfs-control event4 log md psaux ptyp9 ram13 rtc sdb4 tty11 tty22 tty33 tty44 tty55 tty9 ttypb usbmon2 vcsa2
bus event5 loop0 mem ptmx ptypa ram14 rtc0 sdb5 tty12 tty23 tty34 tty45 tty56 ttyp0 ttypc usbmon3 vcsa3
char event6 loop1 mice pts ptypb ram15 sda sg0 tty13 tty24 tty35 tty46 tty57 ttyp1 ttypd usbmon4 vcsa4
console fb0 loop2 microcode ptyp0 ptypc ram2 sda1 sg1 tty14 tty25 tty36 tty47 tty58 ttyp2 ttype vcs vcsa5
core fd loop3 mouse0 ptyp1 ptypd ram3 sda2 shm tty15 tty26 tty37 tty48 tty59 ttyp3 ttypf vcs1 vcsa6
root@rescue /dev # fdisk -l
WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes
256 heads, 63 sectors/track, 363376 cylinders, total 5860533168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x8ab49420
Device Boot Start End Blocks Id System
/dev/sdb1 1 4294967295 2147483647+ ee GPT
Partition 1 does not start on physical sector boundary.
WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sda: 3000.6 GB, 3000592982016 bytes
256 heads, 63 sectors/track, 363376 cylinders, total 5860533168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sda1 1 4294967295 2147483647+ ee GPT
Partition 1 does not start on physical sector boundary.
root@rescue /dev #
Может ли кто-нибудь дать мне совет или указать правильное направление для решения моей проблемы? Может быть, я все делаю неправильно, и я должен выбрать другой подход, или, возможно, это вообще невозможно:/
ОБНОВЛЕНИЕ 1 Во-первых, позвольте мне поблагодарить вас за все ваши предложения. Я попробовал несколько вещей, но не уверен, что означают результаты..
Во-первых, вы уже видели результат fdisk -l
(Я не уверен, что тот факт, что /dev/sda имеет идентификатор диска: 0x00000000 - это ключ.
Я пытался смонтировать /dev/sda1
и это сработало. Однако, если я зайду в этот каталог, я смогу увидеть только папку EFI. Это нормально?
Также, если я попытаюсь смонтировать /dev/sdb1
Я получаю "mount: вы должны указать тип файловой системы".
Если я бегу cat /proc/mdstat
Я получаю это:
Personalities : [raid1]
unused devices: <none>
ОБНОВЛЕНИЕ 2 Следуя совету Кристиана Чиупиту, я запустил smartctl на обоих дисках, и вот результаты:
SDB:
root@rescue / # smartctl -l error /dev/sdb
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.10.36] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF READ SMART DATA SECTION ===
SMART Error Log Version: 1
ATA Error Count: 242 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 242 occurred at disk power-on lifetime: 20101 hours (837 days + 13 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 8c fe a2 0b Error: UNC at LBA = 0x0ba2fe8c = 195231372
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 01 8c fe a2 4b 00 7d+19:32:38.593 READ FPDMA QUEUED
ef 10 02 00 00 00 a0 00 7d+19:32:38.559 SET FEATURES [Reserved for Serial ATA]
27 00 00 00 00 00 e0 00 7d+19:32:38.559 READ NATIVE MAX ADDRESS EXT
ec 00 00 00 00 00 a0 00 7d+19:32:38.559 IDENTIFY DEVICE
ef 03 46 00 00 00 a0 00 7d+19:32:38.559 SET FEATURES [Set transfer mode]
Error 241 occurred at disk power-on lifetime: 20101 hours (837 days + 13 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 8b fe a2 0b Error: UNC at LBA = 0x0ba2fe8b = 195231371
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 01 8c fe a2 4b 00 7d+19:32:35.600 READ FPDMA QUEUED
60 00 01 8b fe a2 4b 00 7d+19:32:35.600 READ FPDMA QUEUED
ef 10 02 00 00 00 a0 00 7d+19:32:35.567 SET FEATURES [Reserved for Serial ATA]
27 00 00 00 00 00 e0 00 7d+19:32:35.567 READ NATIVE MAX ADDRESS EXT
ec 00 00 00 00 00 a0 00 7d+19:32:35.566 IDENTIFY DEVICE
Error 240 occurred at disk power-on lifetime: 20101 hours (837 days + 13 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 8d fe a2 0b Error: UNC at LBA = 0x0ba2fe8d = 195231373
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 01 8b fe a2 4b 00 7d+19:32:32.607 READ FPDMA QUEUED
60 00 01 8c fe a2 4b 00 7d+19:32:32.606 READ FPDMA QUEUED
60 00 01 8d fe a2 4b 00 7d+19:32:32.606 READ FPDMA QUEUED
ef 10 02 00 00 00 a0 00 7d+19:32:32.574 SET FEATURES [Reserved for Serial ATA]
27 00 00 00 00 00 e0 00 7d+19:32:32.573 READ NATIVE MAX ADDRESS EXT
Error 239 occurred at disk power-on lifetime: 20101 hours (837 days + 13 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 8a fe a2 0b Error: UNC at LBA = 0x0ba2fe8a = 195231370
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 01 8d fe a2 4b 00 7d+19:32:29.563 READ FPDMA QUEUED
60 00 01 8c fe a2 4b 00 7d+19:32:29.563 READ FPDMA QUEUED
60 00 01 8b fe a2 4b 00 7d+19:32:29.563 READ FPDMA QUEUED
60 00 01 8a fe a2 4b 00 7d+19:32:29.563 READ FPDMA QUEUED
ef 10 02 00 00 00 a0 00 7d+19:32:29.531 SET FEATURES [Reserved for Serial ATA]
Error 238 occurred at disk power-on lifetime: 20101 hours (837 days + 13 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 8e fe a2 0b Error: UNC at LBA = 0x0ba2fe8e = 195231374
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 01 8a fe a2 4b 00 7d+19:32:26.521 READ FPDMA QUEUED
60 00 01 8b fe a2 4b 00 7d+19:32:26.521 READ FPDMA QUEUED
60 00 01 8c fe a2 4b 00 7d+19:32:26.521 READ FPDMA QUEUED
60 00 01 8d fe a2 4b 00 7d+19:32:26.521 READ FPDMA QUEUED
60 00 01 8e fe a2 4b 00 7d+19:32:26.520 READ FPDMA QUEUED
SDA:
root@rescue / # smartctl -t short /dev/sda
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.10.36] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
Short INQUIRY response, skip product id
A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.
ОБНОВЛЕНИЕ 3 Я сделал lsblk, чтобы найти, какие разделы имеют данные:
root@rescue / # lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 2.7T 0 disk
├─sda1 8:1 0 200M 0 part
├─sda2 8:2 0 1M 0 part
├─sda3 8:3 0 127M 0 part
├─sda4 8:4 0 2.7T 0 part /mnt
└─sda5 8:5 0 455.5K 0 part
sdb 8:16 0 2.7T 0 disk
├─sdb1 8:17 0 1M 0 part
├─sdb2 8:18 0 127M 0 part
├─sdb3 8:19 0 200M 0 part
├─sdb4 8:20 0 2.7T 0 part
└─sdb5 8:21 0 455.5K 0 part
loop0 7:0 0 1.5G 1 loop
Затем я установил sda4. Я могу видеть файловую систему (модуль C в Windows), но когда я захожу в каталог (скажем, "Program Files") и пытаюсь перечислить все файлы, я получаю ошибку ввода-вывода:
dir: reading directory .: Input/output error
Я все равно пытался отправить всю файловую систему через ftp, используя ncftpput, и большинство файлов выдало исключение ввода-вывода.
Если я пытаюсь смонтировать sdb4, я получаю эту ошибку:
root@rescue / # mount /dev/sdb4 /mnt
ntfs_attr_pread_i: ntfs_pread failed: Input/output error
Failed to read vcn 0x28: Input/output error
Failed to mount '/dev/sdb4': Input/output error
NTFS is either inconsistent, or there is a hardware fault, or it's a
SoftRAID/FakeRAID hardware. In the first case run chkdsk /f on Windows
then reboot into Windows twice. The usage of the /f parameter is very
important! If the device is a SoftRAID/FakeRAID then first activate
it and mount a different device under the /dev/mapper/ directory, (e.g.
/dev/mapper/nvidia_eahaabcc1). Please see the 'dmraid' documentation
for more details.
ОБНОВЛЕНИЕ 4
Я попытался ntfsfix без удачи:
root@rescue / # ntfsfix /dev/sdb4
Mounting volume... ntfs_attr_pread_i: ntfs_pread failed: Input/output error
Failed to read vcn 0x28: Input/output error
FAILED
Attempting to correct errors...
Processing $MFT and $MFTMirr...
Reading $MFT... OK
Reading $MFTMirr... OK
Comparing $MFTMirr to $MFT... OK
Processing of $MFT and $MFTMirr completed successfully.
Setting required flags on partition... OK
Going to empty the journal ($LogFile)... OK
ntfs_attr_pread_i: ntfs_pread failed: Input/output error
Failed to read vcn 0x28: Input/output error
Remount failed: Input/output error
4 ответа
Сначала проверьте ваши резервные копии. Если все идет хорошо, они вам не понадобятся, но это сильно (эмоционально) поможет, если вы знаете, что ваши данные в безопасности и что вы можете рисковать вещами, не понимая их полностью.
Затем выясните, какой RAID вы использовали. Это может быть аппаратный RAID, но это может быть и программный RAID, такой как mdadm. Если вы не помните, что платить за HW RAID mdadmn вполне вероятно. Подтвердите это и прочитайте справочные страницы mdadm.
Далее выясните, какой диск сломан, а какой все еще в порядке.
Смонтируйте диск, который в порядке, чтобы получить ухудшенный RAID1. Чтобы это проверить cat /proc/mdstat
, Если вам повезет, вы получите вывод, похожий на этот:
cat / proc / mdstat Личности: [линейный] [многолучевой] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10] md0: активный raid1 sda1[0] sdb1[2](F) 24418688 блоков [2/1] [U_]
В этом примере mdadm загружается и распознает, что на втором диске произошел сбой. Если вы не получаете этот вывод, проверьте, есть ли в вашем ядре поддержка mdadm или загружен ли нужный модуль. При желании создать новое устройство MD. Собираясь из памяти команда для этого mdadm --create /dev/md0 --level=1 --raid-devices=2 missing /dev/sdb2
, (Проверьте это! И поймите, что это предполагает, что второй диск вышел из строя. Если это была первая запись, то создайте ее с отсутствующим sda!).
Как только вы получите работающее устройство /dev/mdX, скопируйте все свои данные в свободное место. Возможно, вам это не нужно, но вы хотите быть уверены, что ваши резервные копии полностью обновлены. Только после этого попросите вашего провайдера заменить сломанный диск на новый и добавить новый диск в массив RAID.
caveeats:
- Это предполагает, что у вас есть резервные копии, или вы можете прочитать руководство.
- Это предполагает, что диск был разделен как один большой RAID1. Это вероятно, но не гарантировано. (Можно было бы разбить диск на несколько разделов и установить их в RAID). Однако путь наименьшего усилия будет один большой диск RAID1, и, поскольку он требует меньше работы, он в основном используется по умолчанию.
Вам необходимо заменить диск. Сейчас.
В Linux ваш массив будет отображаться как отдельный диск, если он не разделен по-разному или не разделен контроллером на разные виртуальные диски. Вы должны иметь возможность использовать последовательную консоль (если она предоставляется хостом) для загрузки контроллера вашего сервера и посмотреть, как он настроен.
Но замените диск или извините. В зависимости от возраста ваших дисков, второй может приближаться ко времени отказа, и вы действительно хотите закончить восстановление до того, как оно выйдет из строя.
Вы должны быть в состоянии смонтировать жесткий диск, который все еще в сети.
Попробуйте команду mount /dev/sda1 /mnt
Если эта команда работает, она смонтирует файловую систему под /mnt
, Перейдите в эту папку, и вы сможете увидеть файлы и папки. Просто сделайте резервную копию необходимой вам информации и следуйте советам Джонатана.
Возможно, вы захотите заменить плохой жесткий диск на хороший, и он должен починиться сам. Вполне возможно, что ваша реализация RAID отличается, и вам, возможно, придется обратиться к документации вашего поставщика для получения дальнейших указаний. Однако, если файловая система была повреждена программным обеспечением, а не плохим жестким диском, RAID не защищает от этого (например, плохие записи происходят на обоих жестких дисках).