저는 Fedora Server Edition 26을 실행하고 있으며 RAID1에 병합한 각 드라이브에 파티션이 있는 외부 USB 드라이브 2개가 있습니다. 내 /etc/fstab 파일에는 어레이를 자동 마운트하기 위한 다음 줄이 포함되어 있습니다.
UUID=B0C4-A677 /mnt/backup-raid exfat uid=strwrsdbz,gid=strwrsdbz,umask=022,windows_names,locale=en.utf8,nobootwait,nofail 0 2
그러나 부팅이 완료된 후 /mnt/backup-raid의 어레이는 마운트되지 않습니다. 로그 로그를 확인하면
Oct 28 21:32:07 hostname systemd[1]: Started File System Check on /dev/disk/by-uuid/B0C4-A677.
Oct 28 21:32:07 hostname audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=systemd-fsck@dev-disk-by\x2duuid-B0C4\x2dA677 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:07 hostname kernel: audit: type=1130 audit(1509240727.851:75): pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=systemd-fsck@dev-disk-by\x2duuid-B0C4\x2dA677 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:08 hostname systemd[1]: Mounting /mnt/backup-raid...
Oct 28 21:32:08 hostname systemd[1]: Mounted /mnt/c.
Oct 28 21:32:08 hostname ntfs-3g[702]: Version 2017.3.23 integrated FUSE 28
Oct 28 21:32:08 hostname ntfs-3g[702]: Mounted /dev/sda1 (Read-Write, label "", NTFS 3.1)
Oct 28 21:32:08 hostname ntfs-3g[702]: Cmdline options: rw,uid=1000,gid=1000,umask=022,windows_names,locale=en.utf8
Oct 28 21:32:08 hostname ntfs-3g[702]: Mount options: rw,allow_other,nonempty,relatime,default_permissions,fsname=/dev/sda1,blkdev,blksize=4096
Oct 28 21:32:08 hostname ntfs-3g[702]: Global ownership and permissions enforced, configuration type 7
Oct 28 21:32:08 hostname lvm[599]: 3 logical volume(s) in volume group "fedora" now active
Oct 28 21:32:08 hostname systemd[1]: Started LVM2 PV scan on device 8:5.
Oct 28 21:32:08 hostname audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@8:5 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:08 hostname kernel: audit: type=1130 audit(1509240728.594:76): pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=lvm2-pvscan@8:5 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:08 hostname systemd[1]: Found device /dev/mapper/fedora-home.
Oct 28 21:32:08 hostname systemd[1]: Mounting /home...
Oct 28 21:32:08 hostname kernel: XFS (dm-2): Mounting V4 Filesystem
Oct 28 21:32:08 hostname systemd[1]: Mounted /mnt/igel1.
Oct 28 21:32:08 hostname systemd-fsck[666]: /dev/sda3: clean, 376/128016 files, 291819/512000 blocks
Oct 28 21:32:08 hostname systemd[1]: Mounted /mnt/igel2.
Oct 28 21:32:08 hostname systemd[1]: Mounted /mnt/backup-raid.
*전단*
Oct 28 21:32:33 hostname systemd[1]: Created slice system-mdadm\x2dlast\x2dresort.slice.
Oct 28 21:32:33 hostname systemd[1]: Starting Activate md array even though degraded...
Oct 28 21:32:33 hostname systemd[1]: Unmounting /mnt/backup-raid...
Oct 28 21:32:34 hostname systemd[1]: Started Activate md array even though degraded.
Oct 28 21:32:34 hostname audit[1]: SERVICE_START pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=mdadm-last-resort@md0 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:34 hostname audit[1]: SERVICE_STOP pid=1 uid=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:init_t:s0 msg='unit=mdadm-last-resort@md0 comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
Oct 28 21:32:34 hostname kernel: md0:
Oct 28 21:32:34 hostname systemd[1]: Unmounted /mnt/backup-raid.
그래서 첫 번째 로그 블록에 설치된 것처럼 보이지만 다운그레이드된 것으로 나타나서 제거되었습니다. 그러나 부팅이 완료되면 실행할 수 있었고 sudo mount -a
문제 없이 어레이가 설치되었습니다. 내용이 /mnt/backup-raid에 올바르게 표시되고 /proc/mdstat가 표시되는지 확인하세요.
Personalities : [raid1]
md0 : active raid1 sdc2[0] sdb2[2]
485345344 blocks super 1.2 [2/2] [UU]
bitmap: 0/4 pages [0KB], 65536KB chunk
unused devices: <none>
그래서 모든 것이 건강해 보입니다. 도움이 된다면 내 /etc/mdadm.conf에 다음이 포함되어 있습니다.
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=hostname:backup-raid UUID=6c8bf3df:c4147eb1:4c3f88d8:e94d1dbc devices=/dev/sdb2,/dev/sdc2
내가 찾은이 이메일 스레드비슷한 상황을 처리하고 있는 것 같은데, 제가 보기엔 그냥 묵묵부답인 것 같습니다. 답변이 해당 이메일 스레드에 있는데 제가 놓쳤다면 죄송합니다. 하지만 제가 따라가기에는 너무 빡빡해서요.
답변1
"버그 감지 다운그레이드 어레이" systemd-devel 스레드는 udev와 mdadm-last-resort 타이머/서비스 간의 경쟁 조건과 관련되어 있습니다. 그런 다음 이 줄은 Conflicts=sys-devices-virtual-block-%i.device
이전에 마운트된 파일 시스템의 마운트 해제를 트리거합니다.
스레드도해결책이 언급되었습니다이렇게 하면 문제도 해결됩니다. Conflicts=...
줄을 다음으로 바꾸세요 ConditionPathExissts=...
.
# cp /usr/lib/systemd/system/mdadm-last-resort@.* /etc/systemd/system/
# sed -i 's@^Conflicts=sys-devices-virtual-block-%i.device@ConditionPathExists=/sys/devices/virtual/block/%i@' \
/etc/systemd/system/mdadm-last-resort@.*
# shutdown -r now
다음을 통해 직접 교체할 수 있습니다./etc/systemd/system/.../override.conf
Conflicts=
행 삭제에는 작동하지 않습니다.
관련 업스트림 시스템 문제를 구독할 수 있습니다."충돌"의 단방향 버전이 필요합니다.근본적인 문제에 대한 변경 사항에 대한 알림을 받습니다.
내 것도 참조하세요Fedora 27 오류 보고서/boot/efi
이 문제는 RAID-1 미러에 배치할 때 마운트할 수 없는 것으로 나타납니다 .