이상한 질문입니다. UPS가 제대로 작동하지 못하게 하는 오랜 정전(변압기 폭발!)으로 인해 Slackware 13을 실행하는 서버가 충돌했습니다. 이 기계는 2009년 12월부터 아무 문제 없이 다중 사용자 환경에서 회계 소프트웨어 및 파일 저장 기능을 조용히 수행해 왔습니다!
머신에는 두 개의 500GB SATA 디스크가 있으며 다음을 사용하여 설정됩니다.좌심실 용적소프트웨어 위에디스크 어레이 1(모두 슬랙웨어 설치 프로그램에 의해 수행됩니다). 전원을 켜면 initrd image
정상적으로 로드되지만 루트 파일 시스템을 마운트할 때 시작되지 않습니다.
"Failed to mount /dev/Volume00/RootVol on /mnt. No such device or directory."
RootVol은 볼륨 그룹 Volume00의 논리 볼륨입니다. 이 볼륨 그룹에는 스왑뿐만 아니라 3개의 다른 LV 파일 시스템이 있습니다. 그 중 무엇이든 설치할 수 있고 boot#_ prompt
모두 괜찮아 보입니다. 그러나 루트 파일 시스템인 RootVol은 전혀 표시되지 않습니다. /dev/mapper/Volume00
4개의 다른 항목이 나열되어 있지만 RootVol은 없습니다.
그래서 Linux 복구 CD를 부팅했습니다. RAID1 볼륨이 /dev/md0
나타났고, 보라, 그것을 보고 마운트할 수 있었다 /dev/Volume00/RootVol
.
이제 /proc/mdstat
디스플레이는 /dev/md0
장치만 사용하여 성능이 저하된 방식으로 실행됩니다 /dev/dm-1
. 이것이 디스크가 꺼져 있다는 뜻인지는 잘 모르겠습니다... 저는 /proc/mdstat... /dev/sda1, /dev/sda2 등에서 실제 하드 드라이브를 보는 데 익숙합니다. LVM이 아닌 어레이에서. 어떤 디스크에 오류가 발생했는지 어떻게 확인하나요? /dev/dm-x
장비는 장비와 어떤 관련이 있습니까 /dev/sdx
? 문제가 없는 것으로 보이는 나머지 디스크에서 머신을 부팅하려면 어떻게 해야 합니까? 어레이에 사용되는 두 개의 하드 드라이브는 전체 디스크인 /dev/sda 및 /dev/sdb입니다.
누구든지 /dev/dm-x 장치에 대한 튜토리얼을 알려줄 수 있나요? LVM 장치인 것을 확인했습니다.DM 설치 프로그램하지만 내가 하고 있는 일을 제대로 이해하지 못한 채 아무것도 망치고 싶지는 않습니다. RAID가 물리적 장치에 구축된 다음 볼륨 그룹이 RAID 장치에 구축된 것 같습니다... LVM 장치가 디스크 어레이의 요소로 표시되는 이유를 이해할 수 없지만 빌어먹을 좋은 이유... .또는 나의 근본적인 오해.
다음은 몇 가지 정보입니다.
cat /dev/mdstat의 출력은 다음과 같습니다.
root@sysresccd /mnt/rootvol/etc % cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 dm-1[0]
488287488 blocks [2/1] [U_]
unused devices: <none>
내가 기대했던 것과는 다릅니다. 내 두 개의 하드 드라이브는 /dev/sda 및 /dev/sdb이며 /var/log/messages에는 이에 대한 오류가 없습니다. 하지만 실행 중인 Live CD 버전에서 로그 수준을 조정할 수는 없습니다. /proc/mdstat에 실제 장치가 표시되지 않는 이유는 무엇입니까? /dev/dm-# 장치가 무엇인가요?
mdadm --detail /dev/md0의 출력은 다음과 같습니다.
root@sysresccd /mnt/rootvol/etc % dmadm -D /dev/md0
zsh: correct 'dmadm' to 'mdadm' [nyae]? y
/dev/md0:
Version : 0.90
Creation Time : Thu Dec 3 11:53:48 2009
Raid Level : raid1
Array Size : 488287488 (465.67 GiB 500.01 GB)
Used Dev Size : 488287488 (465.67 GiB 500.01 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sun Jul 10 12:00:57 2016
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
UUID : a89cbdf5:f83cf3f7:dcc86dce:213c81b2
Events : 0.38
Number Major Minor RaidDevice State
0 253 1 0 active sync /dev/dm-1
2 0 0 2 removed
a) 내 디스크에 오류가 있거나 b) /dev/md0 배열이 동기화되지 않은 것 같습니다. 아마도 디스크에 오류가 있다고 생각하는 것일까요?
그럼에도 불구하고, 머신은 확실히 이 상태에서 부팅되지 않을 것이며, 내 하드 드라이브 중 어느 드라이브(있는 경우)에 문제가 있는지, 이 문제를 해결하는 방법을 알 수 없습니다. 이것은 전체 백업이 가능한 프로덕션 서버입니다... 재구축할 수는 있지만 매우 지루한 과정이기 때문에 별로 하고 싶지 않습니다... 데이터에는 아무런 문제가 없으며 두 디스크 모두 문제가 없을 것으로 추측합니다.
mdadm.conf
아니요
fdisk -l
두 디스크 모두 Linux Raid 자동 감지로 표시되었으며 모든 것이 정상적으로 보였습니다.
출력은 dmsetup
다음과 같습니다(???는 내가 삽입한 것입니다).
root@sysresccd /mnt/rootvol/etc % dmsetup ls
isw_bfdbfijegh_Volume01 (253:1)
isw_bfdbfijegh_Volume0 (253:0)
Volume00-MediaVol (253:9)
Volume00-RootSnap-cow (253:4) <-- ??? --- "cow" --- ???
Volume00-XplrVol (253:7)
Volume00-RootSnap (253:5)
Volume00-SwapVol (253:8)
Volume00-RootVol (253:3)
Volume00-RootVol-real (253:2) <--- ??? --- "real" --- ???
Volume00-HomeVol (253:6)
이에 대한 응답으로 다음 정보를 게시했지만 원본 게시물을 편집하여 다음과 같이 여기에 추가하라는 조언을 받았습니다.
다음은 dmsetup
테이블입니다.
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % dmsetup table
isw_bfdbfijegh_Volume01: 0 976575222 linear 253:0 63
isw_bfdbfijegh_Volume0: 0 976767240 mirror core 2 131072 nosync 2 8:0 0 8:16 0 1 handle_errors
Volume00-MediaVol: 0 209715200 linear 9:127 134218112
Volume00-RootSnap-cow: 0 2097152 linear 9:127 385876352
Volume00-XplrVol: 0 41943040 linear 9:127 83886464
Volume00-RootSnap: 0 20971520 snapshot 253:2 253:4 P 8
Volume00-SwapVol: 0 8388608 linear 9:127 125829504
Volume00-RootVol: 0 20971520 snapshot-origin 253:2
Volume00-RootVol-real: 0 20971520 linear 9:127 384
Volume00-HomeVol: 0 62914560 linear 9:127 20971904
Volume00-HomeVol: 62914560 41943040 linear 9:127 343933312
mdadm -E
각 하드 드라이브에 대한 정보 입니다 .
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sda
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
/dev/sda:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 5b4a335b
Family : 5b4a335b
Generation : 0000000a
Attributes : All supported
UUID : 15980595:45ac18ac:22467c90:56138fde
Checksum : c51f833a correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : WD-WCASY8349657
State : active
Id : 00000000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
[Volume0]:
UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Array Size : 976766976 (465.76 GiB 500.10 GB)
Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
Sector Offset : 0
Num Stripes : 3815496
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
Disk01 Serial : WD-WCASY8288673
State : active
Id : 00010000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sdb
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 5b4a335b
Family : 5b4a335b
Generation : 0000000a
Attributes : All supported
UUID : 15980595:45ac18ac:22467c90:56138fde
Checksum : c51f833a correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk01 Serial : WD-WCASY8288673
State : active
Id : 00010000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
[Volume0]:
UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Array Size : 976766976 (465.76 GiB 500.10 GB)
Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
Sector Offset : 0
Num Stripes : 3815496
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
Disk00 Serial : WD-WCASY8349657
State : active
Id : 00000000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
이미 --assemble 이 있지 않나요 initrd
? 루트 볼륨을 마운트할 수 없는데 어레이가 부팅됩니다... 동일한 RAID1 어레이의 동일한 VG에 있는 다른 3개의 볼륨을 마운트할 수 있습니다... /dev/Volume00/RootVol
복구 CD로 부팅하는 동안 마운트할 수 있는 이유는 무엇입니까? . 디스크에서 부팅하시겠습니까?