Миграция CentOS VM с использованием LVM в IDE для работы с VirtIO
Я пытаюсь перенести существующие виртуальные машины CentOS 5.2 на базе LVM с использованием среды IDE для использования virtio. Симптом - это паника ядра при загрузке, когда система не может найти группы томов. Кто-нибудь знает, как заставить это работать?
Я создал установку vm, которая не использовала LVM и смогла переключить ее на использование virtio. Вот куда я попал при использовании LVM:
шаги:
- Установите CentOS 5.2 в kvm, который использует LVM, на диске ide.
- Установите новое ядро с поддержкой virtio, в моем случае, 2.6.18-371.6.1.el5.centos.plus и измените настройки (подробно описано ниже).
- Выключите систему. Измените тип диска на virtio в конфиге virt-manager.
- Загрузитесь и выберите новое ядро в приглашении grub. "Группы томов не найдены" и паника ядра.
На втором шаге выше я обновил /boot/grub/device.map, /etc/modprobe.conf и перезапустил mkinitrd.
файл /boot/grub/device.map:
# this device map was generated by anaconda
(hd0) /dev/vda
/etc/modprobe.conf:
alias eth0 virtio_net
alias scsi_hostadapter virtio_blk
alias snd-card-0 snd-hda-intel
options snd-card-0 index=0
options snd-hda-intel index=0
remove snd-hda-intel { /usr/sbin/alsactl store 0 >/dev/null 2>&1 || : ; }; /sbin/modprobe -r --ignore-remove snd-hda-intel
/boot/grub/grub.conf:
default=0
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title CentOS (2.6.18-371.6.1.el5.centos.plus)
root (hd0,0)
kernel /vmlinuz-2.6.18-371.6.1.el5.centos.plus ro root=/dev/VolGroup00/LogVol00
initrd /initrd-2.6.18-371.6.1.el5.centos.plus.img
Я распаковал образ initrd и модули virtio оказались там:
[root@localhost initrd]# ls -1 /tmp/initrd/lib/ | grep virt
virtio_blk.ko
virtio.ko
virtio_pci.ko
virtio_ring.ko
Я обновился до mkinitrd-5.1.19.6-80.el5_9, который использует lvm dumpconfig для генерации lvm.conf:
[root@localhost initrd]# cat /tmp/initrd/etc/lvm/lvm.conf
devices {
dir="/dev"
scan="/dev"
preferred_names=[]
filter="a/.*/"
cache_dir="/etc/lvm/cache"
cache_file_prefix=""
write_cache_state=1
sysfs_scan=1
md_component_detection=1
ignore_suspended_devices=0
}
activation {
missing_stripe_filler="/dev/ioerror"
reserved_stack=256
reserved_memory=8192
process_priority=-18
mirror_region_size=512
readahead="auto"
mirror_log_fault_policy="allocate"
mirror_device_fault_policy="remove"
}
global {
umask=63
test=0
units="h"
activation=1
proc="/proc"
locking_type=1
fallback_to_clustered_locking=1
fallback_to_local_locking=1
locking_dir="/var/lock/lvm"
}
shell {
history_size=100
}
backup {
backup=1
backup_dir="/etc/lvm/backup"
archive=1
archive_dir="/etc/lvm/archive"
retain_min=10
retain_days=30
}
log {
verbose=0
syslog=1
overwrite=0
level=0
indent=1
command_names=0
prefix=" "
}
Я проверил CONFIG_SYSFS_DEPRECATED, как в этом вопросе, но, похоже, это вариант после 2.6.18.
Кто-нибудь знает, чего еще не хватает?