Debian Xen 서버를 10에서 11로 업데이트한 다음 재부팅하지 않고 Debian 12로 업데이트한 다음 서버를 재부팅했는데 이제 일부 가상 머신만 시작됩니다.
vm06은 잘 실행되지만 vm04는 그렇지 않습니다. (더 많은 것이 있지만 가독성을 위해 이 질문에서는 제거했습니다.)
이제 /dev/vg0 폴더에는 일부 링크된 vlumes만 있습니다.
# ll /dev/vg0/
total 0
lrwxrwxrwx 1 root root 7 Aug 20 17:04 backup -> ../dm-2
lrwxrwxrwx 1 root root 7 Aug 20 17:04 root -> ../dm-0
lrwxrwxrwx 1 root root 8 Aug 20 17:04 vm06.docker-disk -> ../dm-10
# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
backup vg0 -wi-ao---- 2,01t
root vg0 -wi-ao---- 10,00g
vm04.matrix-disk vg0 owi-i-s--- 130,00g
vm06.docker-disk vg0 owi-a-s--- 610,00g
다음을 사용하면 lvdisplay
누락된 볼륨 vm04-matrix가 계속 포함됩니다 .
# lvdisplay|grep Path|grep -v swap
LV Path /dev/vg0/root
LV Path /dev/vg0/backup
LV Path /dev/vg0/vm06.docker-disk
LV Path /dev/vg0/vm04.matrix-disk
lvdisplay|awk '/LV Name/{n=$3} /Block device/{d=$3; sub(".*:","dm-",d); print d,n;}'
매트릭스 디스크가 존재함을 보여라./dev/dm-25
# cat /etc/lvm/backup/vg0
...
vg0 {
id = "Cfe7Ii-rZBl-mEnH-tk5Z-q9WW-UyTk-3WstVn"
seqno = 29269
format = "lvm2" # informational
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192 # 4 Megabytes
max_lv = 0
max_pv = 0
metadata_copies = 0
physical_volumes {
pv0 {
id = "KlmZUe-3FiK-VbBZ-R962-219A-GGAU-I3a5Nl"
device = "/dev/md1" # Hint only
status = ["ALLOCATABLE"]
flags = []
dev_size = 15626736256 # 7,27677 Terabytes
pe_start = 2048
pe_count = 1907560 # 7,27676 Terabytes
}
}
logical_volumes {
...
vm06.docker-disk {
id = "y3CSuy-z4gU-72Bd-678E-sYTi-Lkmi-dwAkgT"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_time = 1584654364 # 2020-03-19 22:46:04 +0100
creation_host = "dom0-eclabs"
segment_count = 3
segment1 {
start_extent = 0
extent_count = 97280 # 380 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 263936
]
}
segment2 {
start_extent = 97280
extent_count = 7680 # 30 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 422912
]
}
segment3 {
start_extent = 104960
extent_count = 51200 # 200 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 1050889
]
}
}
...
vm04.matrix-disk {
id = "Tak3Zq-3dUU-SAJl-Hd5h-weTM-cHMR-qgWXeI"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_time = 1584774051 # 2020-03-21 08:00:51 +0100
creation_host = "dom0-eclabs"
segment_count = 2
segment1 {
start_extent = 0
extent_count = 25600 # 100 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 531968
]
}
segment2 {
start_extent = 25600
extent_count = 7680 # 30 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 1002249
]
}
}
}
}
dmsetup은 여전히 디스크를 나열합니다.
# dmsetup info|grep matrix
Name: vg0-vm04.matrix--disk
하지만 /dev/dm-X에 연결되어 있지 않은 것 같습니다.
# for i in /dev/dm-*; do echo $i; dmsetup info $i; done|grep matrix
(이것은 아무것도 표시하지 않습니다).
pvcreate –restorefile lvm_backup_datei –uuid <uuid> <partition>
설명대로 복구 모드에서 수행했습니다 .여기다시 시작했지만 여전히 같은 문제입니다.
난 그것을 알아 챘다복구 시스템에는 모든 lvm 파티션이 있습니다.with lsblk
및 under /dev/mapper/...
(복구 시스템은 커널 6.4.7을 사용함). 그러나 시스템을 다시 시작한 후에는 다시 다음 몇 가지만 표시됩니다.
├─sdb2 8:18 0 7,3T 0 part
│ └─md1 9:1 0 7,3T 0 raid1
│ ├─vg0-root 253:0 0 10G 0 lvm /
│ ├─vg0-swap 253:1 0 4G 0 lvm [SWAP]
│ ├─vg0-backup 253:2 0 2T 0 lvm /backup
│ ├─vg0-vm06.docker--swap 253:8 0 8G 0 lvm
│ ├─vg0-vm06.docker--disk-real 253:9 0 610G 0 lvm
│ │ ├─vg0-vm06.docker--disk 253:10 0 610G 0 lvm
│ │ └─vg0-snap--tmp--vm06.docker--disk 253:12 0 610G 0 lvm
│ ├─vg0-snap--tmp--vm06.docker--disk-cow 253:11 0 16G 0 lvm
│ │ └─vg0-snap--tmp--vm06.docker--disk 253:12 0 610G 0 lvm
고쳐 쓰다:
복구 모드에서 누락된 볼륨을 백업 파티션에 마운트하고 필요한 모든 데이터를 백업하여 새 볼륨을 생성하고 다시 마운트하고 백업된 데이터베이스에 들어갈 수 있었습니다.
답변1
수동으로 전화하는 경우
lvchange -a y /dev/vg0
그러면 모든 볼륨이 복원됩니다.
또한 커널이 업데이트되었으며 /boot/vmlinuz-6.1.0-11-amd64
/etc/xen/x.conf 파일에서 업데이트되어야 한다는 점에 유의해야 합니다.
가상 머신 내의 네트워크 장치가 이전과 변경되어 eth0
각 enX0
가상 머신 네트워크 설정에서 조정되어야 하는지 여부