mdadm - 루트 raid1 파티션을 부팅할 수 없습니다(장치를 찾을 수 없음)

mdadm - 루트 raid1 파티션을 부팅할 수 없습니다(장치를 찾을 수 없음)

소프트 RAID 문제가 있어서 SystemRescueCD로 부팅하고 "--create" 옵션을 사용하여 /raid 이미지(md2)를 다시 만들었습니다(어쩌면 실패한 순간이었을 수도 있습니다). 따라서 RescueCD가 시작되면 모든 RAID 이미지가 로드되고 활성화되어 설치 가능합니다. 그러나 순수 Centos 7은 "dracut-initqueue: warning UUID=b1060ca9-809d-49fb-a072-e26b2342203a 장치가 존재하지 않습니다."라는 메시지와 함께 부팅에 실패합니다. 하지만! md0 이미지가 성공적으로 설치되었습니다(/boot/). 또한 - dracut 쉘의 "mdadm --assemble --scan" 명령을 사용하면 md2가 성공적으로 시작됩니다. 루트 파일 시스템의 모든 파일을 마운트하고 사용할 수 있습니다. 그런데 왜 자동으로 시작할 수 없는지 이해가 되지 않습니다.

나는 initramfs를 재 구축하려고 시도했습니다 (이렇게https://forums.centos.org/viewtopic.php?t=65655), 아무것도 변경되지 않았습니다. 하하, 루트 이미지 md2에 대해 여전히 "장치가 존재하지 않습니다"라는 메시지가 표시됩니다.

/etc/default/grub

GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="consoleblank=0 fsck.repair=no crashkernel=auto rd.md.uuid=6e2d4d58-adaf-93f2-58c3-7506b3edd7a3 rd.md.uuid=75fbe2e5:02c33d4a:ed0366f0:0f2bb828 rd.md.uuid=ae486050-e006-16a3-528b-b912201d5819 selinux=0 rhgb quiet"
GRUB_DISABLE_RECOVERY="true"

시스템 테이블

UUID=b1060ca9-809d-49fb-a072-e26b2342203a /                       xfs     defaults        0 0
UUID=d0eb6305-ef81-4e47-8f5c-38f81d4fab76 /boot                   ext4    defaults        1 2
UUID=d6bd278b-0e71-4b9d-88e8-fc1dc783e4ee swap                    swap    defaults        0 0

mdadm --세부사항--스캔

ARRAY /dev/md/1 metadata=1.2 name=sysresccd:1 UUID=6e2d4d58:adaf93f2:58c37506:b3edd7a3
ARRAY /dev/md/0 metadata=1.2 name=0 UUID=75fbe2e5:02c33d4a:ed0366f0:0f2bb828
ARRAY /dev/md/2 metadata=1.2 name=sysresccd:2 UUID=ae486050:e00616a3:528bb912:201d5819

쿠로코

/dev/sda1: UUID="6e2d4d58-adaf-93f2-58c3-7506b3edd7a3" UUID_SUB="003c3c43-b0c3-3f50-7d7c-ace743bf3e37" LABEL="sysresccd:1" TYPE="linux_raid_member" PARTUUID="0007332f-01"
/dev/sda2: UUID="75fbe2e5-02c3-3d4a-ed03-66f00f2bb828" UUID_SUB="2ce014af-71e5-3f17-c335-757d03b7443a" LABEL="0" TYPE="linux_raid_member" PARTUUID="0007332f-02"
/dev/sda3: UUID="ae486050-e006-16a3-528b-b912201d5819" UUID_SUB="132ac662-3177-9221-4025-5a60b4dba2c2" LABEL="sysresccd:2" TYPE="linux_raid_member" PARTUUID="0007332f-03"
/dev/sdb1: UUID="6e2d4d58-adaf-93f2-58c3-7506b3edd7a3" UUID_SUB="498fc8f6-34d9-f286-c59e-2be87aa7dd9f" LABEL="sysresccd:1" TYPE="linux_raid_member" PARTUUID="000b2ac2-01"
/dev/sdb2: UUID="75fbe2e5-02c3-3d4a-ed03-66f00f2bb828" UUID_SUB="15f7666c-c538-1a1f-2c2f-828d3018cc19" LABEL="0" TYPE="linux_raid_member" PARTUUID="000b2ac2-02"
/dev/sdb3: UUID="ae486050-e006-16a3-528b-b912201d5819" UUID_SUB="92c4a1dc-8445-7a56-a863-4384169ef355" LABEL="sysresccd:2" TYPE="linux_raid_member" PARTUUID="000b2ac2-03"
/dev/md0: UUID="d0eb6305-ef81-4e47-8f5c-38f81d4fab76" TYPE="ext4"
/dev/md2: UUID="b1060ca9-809d-49fb-a072-e26b2342203a" TYPE="xfs"

고양이 /proc/mdstat

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sda3[0] sdb3[1]
      935199744 blocks super 1.2 [2/2] [UU]
      bitmap: 0/7 pages [0KB], 65536KB chunk

md0 : active raid1 sda2[0] sdb2[1]
      261120 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md1 : active raid1 sda1[0] sdb1[1]
      2094080 blocks super 1.2 [2/2] [UU]

(md2 = /, md0 - /boot/, md1 - 스왑)

고양이/etc/mdadm.conf

# cat /etc/mdadm.conf
# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/0 level=raid1 num-devices=2 UUID=75fbe2e5:02c33d4a:ed0366f0:0f2bb828
ARRAY /dev/md/1 level=raid1 num-devices=2 UUID=6e2d4d58:adaf93f2:58c37506:b3edd7a3
ARRAY /dev/md/2 level=raid1 num-devices=2 UUID=ae486050-e006-16a3-528b-b912201d5819

무엇을 찾아야 합니까?

답변1

문제를 발견했습니다.

ARRAY /dev/md/0 level=raid1 num-devices=2 UUID=75fbe2e5:02c33d4a:ed0366f0:0f2bb828
ARRAY /dev/md/1 level=raid1 num-devices=2 UUID=6e2d4d58:adaf93f2:58c37506:b3edd7a3
ARRAY /dev/md/2 level=raid1 num-devices=2 UUID=ae486050-e006-16a3-528b-b912201d5819

어떤 이유로 UUID 항목에는 혼합된 uuid 형식( : 및 - )이 있습니다. default/grub 및 grubcfg에도 동일한 동작이 존재합니다. 모든 곳에서 md2 UUID 형식을 수정하고 새로운 grub.cfg 및 initramfs를 생성한 후 모든 것이 원활하게 진행되었습니다.

관련 정보