최근에 저는 다른 사람이 설치하고 구성한 기본 DM 다중 경로로 실행되는 일부 RHEL 시스템을 인수했습니다.
내 의심은 주로 다음 문제에 중점을 둡니다.
1). 왜 DM의 일부만-? /dev 디렉토리에 dm10~19 파일이 있나요?
2). 모든 매퍼 파일이 해당 dm-을 가리키지 않는 이유는 무엇입니까? 어떤 파일이 심볼릭 링크여야 합니까?
참고: 하지만 모두 전체 DM-? 시스템 커널의 /proc/partitions에서 여전히 볼 수 있습니다. 이러한 증상에도 불구하고 기본 DM 다중 경로를 사용하여 실행되는 모든 시스템은 정상적으로 작동합니다.
#
#
# ls -ltr /dev/mapper
total 0
crw------- 1 root root 10, 60 Jun 22 2021 control
brw-rw---- 1 root disk 253, 9 Jun 22 2021 vgroot-Lvswap
brw-rw---- 1 root disk 253, 10 Jun 22 2021 3600c0ff0001582e1dc40b45101000000
brw-rw---- 1 root disk 253, 17 Jun 22 2021 3600c0ff0001582e1bdaa115201000000
brw-rw---- 1 root disk 253, 13 Jun 22 2021 3600c0ff0001582e1bc43b45101000000
brw-rw---- 1 root disk 253, 16 Jun 22 2021 3600c0ff0001582e189aa115201000000
brw-rw---- 1 root disk 253, 12 Jun 22 2021 3600c0ff0001582e16641b45101000000
brw-rw---- 1 root disk 253, 15 Jun 22 2021 3600c0ff0001582e15bceba5101000000
brw-rw---- 1 root disk 253, 14 Jun 22 2021 3600c0ff0001582e13bceba5101000000
brw-rw---- 1 root disk 253, 11 Jun 22 2021 3600c0ff0001582e11141b45101000000
brw-rw---- 1 root disk 253, 18 Jun 22 2021 3600c0ff0001581c1ca81625501000000
brw-rw---- 1 root disk 253, 19 Jun 22 2021 3600c0ff0001581c1895b895901000000
brw-rw---- 1 root disk 253, 20 Jun 22 2021 vgoms-lvoms
brw-rw---- 1 root disk 253, 21 Jun 22 2021 vghes-lvhes
brw-rw---- 1 root disk 253, 22 Jun 22 2021 vgdata-lvoadata
brw-rw---- 1 root disk 253, 24 Jun 22 2021 vgdata-lvhnweb
brw-rw---- 1 root disk 253, 23 Jun 22 2021 vgdata-lvdocdata
brw-rw---- 1 root disk 253, 0 Jun 22 2021 vgroot-Lvroot
brw-rw---- 1 root disk 253, 1 Jun 22 2021 vgroot-Lvhome
brw-rw---- 1 root disk 253, 2 Jun 22 2021 vgroot-Lvvar
brw-rw---- 1 root disk 253, 3 Jun 22 2021 vgroot-Lvtmp
brw-rw---- 1 root disk 253, 4 Jun 22 2021 vgroot-Lvinstall
brw-rw---- 1 root disk 253, 5 Jun 22 2021 vgroot-Lvusr
brw-rw---- 1 root disk 253, 6 Jun 22 2021 vgroot-Lvopenv
brw-rw---- 1 root disk 253, 7 Jun 22 2021 vgroot-Lvapp
brw-rw---- 1 root disk 253, 8 Jun 22 2021 vgroot-Lvoracle
brw-rw---- 1 root disk 253, 25 Nov 23 17:24 vgqdisk-lvqdisk
#
#
#
# ls -l /dev/dm-*
brw-rw---- 1 root root 253, 10 Jun 22 2021 /dev/dm-10
brw-rw---- 1 root root 253, 11 Jun 22 2021 /dev/dm-11
brw-rw---- 1 root root 253, 12 Jun 22 2021 /dev/dm-12
brw-rw---- 1 root root 253, 13 Jun 22 2021 /dev/dm-13
brw-rw---- 1 root root 253, 14 Jun 22 2021 /dev/dm-14
brw-rw---- 1 root root 253, 15 Jun 22 2021 /dev/dm-15
brw-rw---- 1 root root 253, 16 Jun 22 2021 /dev/dm-16
brw-rw---- 1 root root 253, 17 Jun 22 2021 /dev/dm-17
brw-rw---- 1 root root 253, 18 Jun 22 2021 /dev/dm-18
brw-rw---- 1 root root 253, 19 Jun 22 2021 /dev/dm-19
#
#
#
# cat /proc/partitions
major minor #blocks name
104 0 292935982 cciss/c0d0
104 1 104391 cciss/c0d0p1
104 2 292824787 cciss/c0d0p2
8 0 976512 sda
8 16 97656192 sdb
8 32 97656192 sdc
8 48 97656192 sdd
8 64 97656192 sde
8 80 97656192 sdf
8 96 97656192 sdg
8 112 97656192 sdh
8 128 585937472 sdi
8 144 989858240 sdj
8 160 976512 sdk
8 176 97656192 sdl
8 192 97656192 sdm
8 208 97656192 sdn
8 224 97656192 sdo
8 240 97656192 sdp
65 0 97656192 sdq
65 16 97656192 sdr
65 32 585937472 sds
65 48 989858240 sdt
253 0 10485760 dm-0
253 1 5242880 dm-1
253 2 5242880 dm-2
253 3 5242880 dm-3
253 4 15728640 dm-4
253 5 10485760 dm-5
253 6 20971520 dm-6
253 7 20971520 dm-7
253 8 62914560 dm-8
253 9 16777216 dm-9
253 10 976512 dm-10
253 11 97656192 dm-11
253 12 97656192 dm-12
253 13 97656192 dm-13
253 14 97656192 dm-14
253 15 97656192 dm-15
253 16 97656192 dm-16
253 17 97656192 dm-17
253 18 585937472 dm-18
253 19 989858240 dm-19
253 20 989855744 dm-20
253 21 585105408 dm-21
253 22 209715200 dm-22
253 23 209715200 dm-23
253 24 209715200 dm-24
253 25 974848 dm-25
#
#
#
#
# multipath -ll
3600c0ff0001581c1ca81625501000000 dm-18 HP,P2000 G3 FC
[size=559G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:9 sds 65:32 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:9 sdi 8:128 [active][ready]
3600c0ff0001582e13bceba5101000000 dm-14 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:5 sdo 8:224 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:5 sde 8:64 [active][ready]
3600c0ff0001582e15bceba5101000000 dm-15 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:6 sdp 8:240 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:6 sdf 8:80 [active][ready]
3600c0ff0001582e1bc43b45101000000 dm-13 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:3 sdn 8:208 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:3 sdd 8:48 [active][ready]
3600c0ff0001582e1dc40b45101000000 dm-10 HP,P2000 G3 FC
[size=954M][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:0 sdk 8:160 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:0 sda 8:0 [active][ready]
3600c0ff0001582e11141b45101000000 dm-11 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:1 sdl 8:176 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:1 sdb 8:16 [active][ready]
3600c0ff0001582e16641b45101000000 dm-12 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:2 sdm 8:192 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:2 sdc 8:32 [active][ready]
3600c0ff0001581c1895b895901000000 dm-19 HP,P2000 G3 FC
[size=944G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:10 sdt 65:48 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:10 sdj 8:144 [active][ready]
3600c0ff0001582e1bdaa115201000000 dm-17 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:8 sdr 65:16 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:8 sdh 8:112 [active][ready]
3600c0ff0001582e189aa115201000000 dm-16 HP,P2000 G3 FC
[size=93G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=50][active]
\_ 2:0:2:7 sdq 65:0 [active][ready]
\_ round-robin 0 [prio=10][enabled]
\_ 1:0:3:7 sdg 8:96 [active][ready]
#
#
# rpm -Vav|grep /etc/udev/rules.d
........ /etc/udev/rules.d
........ c /etc/udev/rules.d/05-udev-early.rules
........ c /etc/udev/rules.d/50-udev.rules
........ c /etc/udev/rules.d/51-hotplug.rules
........ c /etc/udev/rules.d/90-dm.rules
........ c /etc/udev/rules.d/95-pam-console.rules
........ c /etc/udev/rules.d/61-uinput-stddev.rules
........ c /etc/udev/rules.d/61-uinput-wacom.rules
........ /etc/udev/rules.d/90-hal.rules
........ /etc/udev/rules.d/90-ib.rules
........ /etc/udev/rules.d/90-alsa.rules
........ c /etc/udev/rules.d/60-raw.rules
........ /etc/udev/rules.d/xen-backend.rules
........ /etc/udev/rules.d/40-multipath.rules
........ /etc/udev/rules.d/60-net.rules
........ /etc/udev/rules.d/90-hal.rules
........ /etc/udev/rules.d/60-wacom.rules
........ c /etc/udev/rules.d/98-kexec.rules
........ c /etc/udev/rules.d/85-pcscd_ccid.rules
........ /etc/udev/rules.d/51-dlm.rules
........ /etc/udev/rules.d/60-libsane.rules
........ c /etc/udev/rules.d/bluetooth.rules
........ /etc/udev/rules.d/60-pcmcia.rules
#
#
# cat /etc/udev/rules.d/90-dm*
KERNEL=="dm-[0-9]*", ACTION=="add", OPTIONS+="ignore_device"
#
#
답변1
나는 정말로 귀하의 질문 1에 대한 답을 모릅니다.). 하지만 누락된 모든 /dev/dm-*
장치 노드가 LVM 장치 매핑과 관련되어 있음 을 확인했습니다 .
그러나 질문 2의 경우.) RHEL 5.x에서는 디렉터리에 심볼릭 링크를 사용하는 것이 /dev/mapper
아직 구현되지 않았습니다. 이 빌드에 사용된 이전 버전은 udev
최신 통합 버전보다 느슨합니다 systemd
.
/dev/mapper/vg*
이 릴리스에서는 실제 장치 노드를 파일과 해당 /dev/dm-*
파일(해당 심볼릭 링크가 아닌 ) 로 갖는 것이 일반적입니다 /dev/mapper/vg*
./dev/dm-*
dm-multipath의 경우에도 마찬가지일 수 있지만 남은 유일한 RHEL 5.x 테스트 VM이 다중 경로로 구성되지 않았기 때문에 이를 확인할 수 없습니다.
또한 대부분의 장치 노드에 있는 타임스탬프를 보면 시스템이 약 1.5년 동안 지속적으로 실행되고 있음을 알 수 /dev/mapper/*
있습니다 /dev/dm-*
. 그런데 /dev/mapper/vgqdisk-lvqdisk
날짜가 11월 23일이라 최근 저장소 구성의 일부가 변경되어 해당 부분이 /dev/dm-25
누락되었습니다.
사용자 정의 udev 규칙을 확인하셨나요 /etc/udev/rules.d/
? RHEL 5.x에는모두이에 대한 udev 규칙이 있습니다. 배포 표준 규칙 /usr/lib/udev/
과 시스템 관리자 사용자 정의 의 분리는 RHEL 5.x에 아직 존재하지 않습니다. /etc/udev/
이전 관리자가 (가능한) 사용자 정의 규칙에 대한 설명을 작성한 경우 해당 설명이 관리자의 생각을 설명할 수 있습니다.
기본이 아닌 규칙이 있는지 확인하려면 다음 명령을 실행해야 합니다.
sudo rpm -Vav | grep /etc/udev/rules.d
그러면 RPM 패키지 관리에 알려진 udev 규칙 파일 목록이 출력됩니다. 파일에 해당 RPM 패키지와 동일한 내용이 포함되어 있으면 파일 이름 앞에 8개의 점이 추가됩니다: ........
.
그런 다음 이 파일 목록을 디렉터리의 실제 파일과 비교해야 합니다 /etc/udev/rules.d
. 명령이 파일을 나열하지 않으면 rpm
해당 파일은 이전 시스템 관리자가 추가한 사용자 정의이므로 장치 노드가 오류를 일으킬 수 있는지 확인해야 합니다. 잃어버린.
/dev/dm-*
물론, 일부 명령의 잘못된 입력으로 인해 장치가 손실될 수 있으며, 시스템을 다시 시작하면 /dev/dm-*
모든 장치가 정상적으로 다시 생성됩니다. 실행하여 sudo lsof +aL1 /dev
누락된 장치가 여전히 켜져 있는 것을 발견하면 삭제가 임의의 시스템 관리자에 의해 삭제되었다는 이론을 뒷받침할 수 있습니다.
(오랜 기간 동안 지속적으로 운영되고 있는 기존 시스템을 인수할 경우, 새로운 관리자가 책임을 지기 전에 기존 관리자에게 시스템이 실제로 오류 없이 다시 시작될 수 있다는 것을 증명하도록 요구하는 것이 좋습니다. 이렇게 하면 숨겨진 문제가 눈에 띄고 모든 종류의 비난 게임을 피할 수 있지만 실제로 그러한 테스트를 마련하는 것이 항상 가능하지는 않다는 것을 알고 있습니다...)