Не удается смонтировать XFS - плохой суперблок
Пожалуйста, помните, я очень нуб и не очень понимаю, что я делаю. У нас Dell PowerEdge 420 с 716iS iSCSI raid. Сетевое подключение оборвалось в середине использования диска, и мы больше не можем подключиться. Я пробовал xfs_check /dev/sdf
Phase 1 - find and verify superblock...
bad primary superblock - bad magic number !!!
attempting to find secondary superblock...
.....<> .....
found candidate secondary superblock
unable to verify superblock continuing...
.....<> .....
Но он никогда не сможет найти действительный суперблок. Так же:
xfs_repair -n /dev/sdf
Phase 1 - find and verify superblock...
bad primary superblock - bad magic number !!!
attempting to find secondary superblock...
Это не находит действительный суперблок.
Что я могу сделать, чтобы восстановить эту файловую систему?
редактировать: утилита f disk не поддерживает GPT. Используйте GNU Parted. Вот разделенный: parted -l / dev / sdf
Model: DELL PERC H310 (scsi)
Disk /dev/sda: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number Start End Size Type File system Flags
1 1049kB 525MB 524MB primary ext4 boot
2 525MB 500GB 499GB primary lvm
Model: JetStor JetStor -VOL1 - (scsi)
Disk /dev/sdb: 39.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 39.0TB 39.0TB primary
Model: JetStor JetStor -VOL2 (scsi)
Disk /dev/sdc: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Model: JetStor JetStor -VOL1 - (scsi)
Disk /dev/sdd: 39.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 39.0TB 39.0TB primary
Model: JetStor JetStor -VOL2 (scsi)
Disk /dev/sde: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Model: AC&Ncorp JetStor (scsi)
Disk /dev/sdf: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Error: /dev/mapper/mpathcp1: unrecognised disk label
Model: Linux device-mapper (multipath) (dm)
Disk /dev/mapper/mpathc: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/vg_cfile-lv_var: 105GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 105GB 105GB ext4
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/vg_jet716s_vol2-lv_jet716sV2a: 37.7TB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 37.7TB 37.7TB xfs
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/vg_jet716s-lv_jet716s_jet: 39.0TB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 39.0TB 39.0TB xfs
Error: /dev/mapper/mpathbp1: unrecognised disk label
Error: /dev/mapper/mpathdp1: unrecognised disk label
Model: Linux device-mapper (multipath) (dm)
Disk /dev/mapper/mpathb: 39.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 39.0TB 39.0TB primary
Model: Linux device-mapper (multipath) (dm)
Disk /dev/mapper/mpathd: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/vg_cfile-lv_swap: 33.8GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 33.8GB 33.8GB linux-swap(v1)
Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/vg_cfile-lv_root: 53.7GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Number Start End Size File system Flags
1 0.00B 53.7GB 53.7GB ext4
edit2: вот файл -s.
file -s /dev/sdf{,1,2,3,4,5,6}
/dev/sdf: x86 boot sector; partition 1: ID=0xee, starthead 0, startsector 1, 4294967295 sectors, extended partition table (last)\011, code offset 0x0
/dev/sdf1: cannot open `/dev/sdf1' (No such file or directory)
/dev/sdf2: cannot open `/dev/sdf2' (No such file or directory)
/dev/sdf3: cannot open `/dev/sdf3' (No such file or directory)
/dev/sdf4: cannot open `/dev/sdf4' (No such file or directory)
/dev/sdf5: cannot open `/dev/sdf5' (No such file or directory)
/dev/sdf6: cannot open `/dev/sdf6' (No such file or directory)
редактировать 3: Вот вывод многолучевого -l
mpathd (35001b4d0189b4801) dm-2 JetStor,JetStor -VOL2
size=47T features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=0 status=active
|- 7:0:0:1 sdc 8:32 active undef running
`- 7:0:1:1 sde 8:64 active undef running
mpathc (32029001378917600) dm-9 AC&Ncorp,JetStor
size=47T features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=0 status=active
`- 8:0:0:0 sdf 8:80 active undef running
mpathb (35001b4d0189b4800) dm-3 JetStor,JetStor -VOL1 -
size=35T features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=0 status=active
|- 7:0:0:0 sdb 8:16 active undef running
`- 7:0:1:0 sdd 8:48 active undef running
И содержание /etc/multipath.conf
# This is a basic configuration file with some examples, for device mapper
# multipath.
# For a complete list of the default configuration values, see
# /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.defaults
# For a list of configuration options with descriptions, see
# /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated
#
# REMEMBER: After updating multipath.conf, you must run
#
# service multipathd reload
#
# for the changes to take effect in multipathd
## By default, devices with vendor = "IBM" and product = "S/390.*" are
## blacklisted. To enable mulitpathing on these devies, uncomment the
## following lines.
#blacklist_exceptions {
# device {
# vendor "IBM"
# product "S/390.*"
# }
#}
## Use user friendly names, instead of using WWIDs as names.
#defaults {
# user_friendly_names yes
#}
##
## Here is an example of how to configure some standard options.
##
# 5/21/14: uncommented this
defaults {
udev_dir /dev
polling_interval 10
path_selector "round-robin 0"
path_grouping_policy multibus
getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
prio alua
path_checker readsector0
rr_min_io 100
max_fds 8192
rr_weight priorities
failback immediate
no_path_retry fail
user_friendly_names yes
}
##
## The wwid line in the following blacklist section is shown as an example
## of how to blacklist devices by wwid. The 2 devnode lines are the
## compiled in default blacklist. If you want to blacklist entire types
## of devices, such as all scsi devices, you should use a devnode line.
## However, if you want to blacklist specific devices, you should use
## a wwid line. Since there is no guarantee that a specific device will
## not change names on reboot (from /dev/sda to /dev/sdb for example)
## devnode lines are not recommended for blacklisting specific devices.
##
#blacklist {
# wwid 26353900f02796769
# devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
# devnode "^hd[a-z]"
#}
#multipaths {
# multipath {
# wwid 3600508b4000156d700012000000b0000
# alias yellow
# path_grouping_policy multibus
# path_checker readsector0
# path_selector "round-robin 0"
# failback manual
# rr_weight priorities
# no_path_retry 5
# }
# multipath {
# wwid 1DEC_____321816758474
# alias red
# }
#}
#devices {
# device {
# vendor "COMPAQ "
# product "HSV110 (C)COMPAQ"
# path_grouping_policy multibus
# getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
# path_checker readsector0
# path_selector "round-robin 0"
# hardware_handler "0"
# failback 15
# rr_weight priorities
# no_path_retry queue
# }
# device {
# vendor "COMPAQ "
# product "MSA1000 "
# path_grouping_policy multibus
# }
#}
blacklist {
}
Здесь есть еще один массив SCSI, поэтому он может менять устройства.
2 ответа
Трудно сказать без дополнительной информации, но есть несколько возможностей. Я бы прокомментировал, если бы мог.
Наихудший случай: ты накрылся. Восстановить из резервной копии. У вас есть резервные копии, верно?
В лучшем случае: /dev/sdf больше не является именем устройства. Проверьте идентификаторы iSCSI LUN и посмотрите, не был ли он переназначен на другое имя устройства. Используете ли вы аппаратный адаптер iSCSI или программное обеспечение? Также может быть полезно попробовать fdisk -l /dev/sdf
и опубликовать вывод здесь.
РЕДАКТИРОВАТЬ: Спасибо за это. Я вижу несколько проблем в вашем последнем выводе:
Model: AC&Ncorp JetStor (scsi)
Disk /dev/sdf: 52.0TB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 52.0TB 52.0TB primary
Error: /dev/mapper/mpathcp1: unrecognised disk label
Во-первых, странно, что массив меняет модель на разных устройствах. Предоставляется ли / dev / sdf другой массив хранения?
Во-вторых, и, возможно, более важно, похоже, что у вас настроена многопутевая передача. Ты можешь бежать multipath -l
и вставить вывод? Кроме того, вы можете вставить содержимое вашего /etc/multipath.conf
?
ОК, опубликуйте результат этой команды. При необходимости измените устройство:sudo xfsdump -f /dev/sdb1 | grep -i superblock
Хочу отметить мой личный опыт, что Ubuntu уже давно не имеет хорошей поддержки XFS, и вам может быть очень полезно загрузить старую копию warty warthog и использовать с ней livecd.
Вы можете получить ответ, который выглядит следующим образом:
Не удалось найти действительный суперблок файловой системы.
если так, не сдавайся пока. Ты можешь попробовать sudo mkfs.xfs -N /dev/sdb1
который будет перечислять детали о файловой системе, без записи каких-либо изменений. Надеюсь, вы увидите что-то в конце этого списка, например: ... резервные копии суперблоков: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208
Это список (примеры: ваш может отличаться) альтернативных суперблоков. затем вы можете использовать метод проб и ошибок, список суперблоков, для восстановления вашей файловой системы XFS с использованием mkfs, fsck и mknode.
Прежде чем писать длинный ответ, опубликуйте подробности xfsdump
, а также mkfs.xfs