나는 몇 년 전에 구입한 6개의 1TB 드라이브를 가지고 있습니다. Seagate 드라이브의 마이크로코드에 문제가 있어서 업데이트했습니다. 불행하게도 이로 인해 두 드라이브의 UUID가 재설정되고 RAID6 어레이가 손상되었습니다. 당시에는 꽤 바빠서 나중에 사용하기 위해 재고를 보관했습니다. 나는 지금(몇 년 후) 돌아왔고 더 이상 똑같은 것이 없습니다. 내가 가진 것은 6개의 드라이브와 6개의 이미지뿐입니다. 어떤 데이터가 있는지 확인하기 위해 마운트된 어레이에 액세스하는 방법을 아는 사람이 있습니까?
나는 이 질문이 이전에 완전히 다루어지지 않았다고 생각하며 간단한 단계별 가이드를 찾으려고 노력했지만 내 상황에 맞는 가이드를 찾지 못했습니다.
현재 linuxmint19.3을 사용하고 있는데, 장애 당시에는 아마도 xubuntu 13.04였을 겁니다.
mdadm --version
mdadm - v4.1-rc1 - 2018-03-22
나는 원시 로그 파일에서 이 정보를 추출했습니다.
-----------------------------------------------------------
[ 2.042156] scsi 0:0:0:0: Direct-Access ATA Hitachi HDS72105 JP2O PQ: 0 ANSI: 5
[ 2.042742] sd 0:0:0:0: [sda] 976773168 512-byte logical blocks: (500 GB/465 GiB)
-----------------------------------------------------------
[ 2.043315] scsi 1:0:0:0: Direct-Access ATA ST3750640A 3.AA PQ: 0 ANSI: 5
[ 2.044099] sd 1:0:0:0: [sdb] 1465149168 512-byte logical blocks: (750 GB/698 GiB)
-----------------------------------------------------------
[ 2.353991] scsi 6:0:0:0: Direct-Access ATA MAXTOR STM310003 MX15 PQ: 0 ANSI: 5
[ 2.354401] sd 6:0:0:0: [sdc] 1953525168 512-byte logical blocks: (1.00 TB/931 GiB)
-----------------------------------------------------------
[ 2.354937] scsi 8:0:0:0: Direct-Access ATA ST31500541AS CC34 PQ: 0 ANSI: 5
[ 2.355790] sd 8:0:0:0: [sdd] 2930277168 512-byte logical blocks: (1.50 TB/1.36 TiB)
-----------------------------------------------------------
[ 2.355895] scsi 9:0:0:0: Direct-Access ATA MAXTOR STM310003 MX15 PQ: 0 ANSI: 5
[ 2.356635] sd 9:0:0:0: [sde] 1953525168 512-byte logical blocks: (1.00 TB/931 GiB)
-----------------------------------------------------------
[ 2.811740] scsi 10:0:0:0: Direct-Access ATA ST31500341AS CC1H PQ: 0 ANSI: 5
[ 2.812103] sd 10:0:0:0: [sdf] 2930277168 512-byte logical blocks: (1.50 TB/1.36 TiB)
-----------------------------------------------------------
[ 3.210713] scsi 11:0:0:0: Direct-Access ATA ST31500541AS CC34 PQ: 0 ANSI: 5
[ 3.211137] sd 11:0:0:0: [sdg] 2930277168 512-byte logical blocks: (1.50 TB/1.36 TiB)
-----------------------------------------------------------
[ 3.600925] scsi 12:0:0:0: Direct-Access ATA WDC WD10EACS-00D 01.0 PQ: 0 ANSI: 5
[ 3.601341] sd 12:0:0:0: [sdh] 1953525168 512-byte logical blocks: (1.00 TB/931 GiB)
-----------------------------------------------------------
[ 21.333709] md: bind<sdf1>
[ 21.334160] md: bind<sdg1>
[ 21.334504] md: bind<sdh1>
[ 21.334817] md: bind<sdd1>
[ 21.335197] md: bind<sdc1>
[ 21.335474] md: bind<sde1>
[ 22.902998] raid5: device sde1 operational as raid disk 0 +
[ 22.903008] raid5: device sdc1 operational as raid disk 5 +
[ 22.903016] raid5: device sdd1 operational as raid disk 4 *
[ 22.903023] raid5: device sdh1 operational as raid disk 3 %
[ 22.903031] raid5: device sdg1 operational as raid disk 2 *
[ 22.903038] raid5: device sdf1 operational as raid disk 1 $
[ 22.904902] raid5: allocated 6386kB for md0
[ 22.905042] 0: w=1 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905053] 5: w=2 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905063] 4: w=3 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905072] 3: w=4 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905082] 2: w=5 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905091] 1: w=6 pa=0 pr=6 m=2 a=2 r=6 op1=0 op2=0
[ 22.905100] raid5: raid level 6 set md0 active with 6 out of 6 devices, algorithm 2
[ 22.905108] RAID5 conf printout:
[ 22.905113] --- rd:6 wd:6
[ 22.905122] disk 0, o:1, dev:sde1
[ 22.905130] disk 1, o:1, dev:sdf1
[ 22.905137] disk 2, o:1, dev:sdg1
[ 22.905145] disk 3, o:1, dev:sdh1
[ 22.905152] disk 4, o:1, dev:sdd1
[ 22.905159] disk 5, o:1, dev:sdc1
[ 22.905299] md0: detected capacity change from 0 to 4000808697856
각 RAID 요소는 동일한 크기의 파티션(~1TB)을 갖습니다. 이는 각 이미지 파일의 체크섬으로 확인할 수 있습니다.
9e43e11e04ac5d8f 1000202241024 raid_dev1.img
e1d810f9cea1cbff 1000202241024 raid_dev2.img
633e675b9b958a18 1000202241024 raid_dev3.img
8b881f07549fc7c9 1000202241024 raid_dev4.img
5727cefbc60af466 1000202241024 raid_dev5.img
1dacd8b59f896a85 1000202241024 raid_dev6.img
각 이미지는 루핑 장치에 연결됩니다.
sudo for N in {1..6} ; do losetup -f --read-only raid_dev"${N}".img ; done
루프 장치 특성은 mdadm --examine에서 가져옵니다.
/dev/loop12:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri May 18 04:32:55 2012
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 4
Preferred Minor : 127
Update Time : Fri May 18 05:02:45 2012
State : active
Active Devices : 0
Working Devices : 4
Failed Devices : 0
Spare Devices : 4
Checksum : 82bfacf0 - correct
Events : 1
Number Major Minor RaidDevice State
this 3 8 49 3 spare /dev/sdd1
0 0 8 177 0 spare
1 1 8 145 1 spare /dev/sdj1
2 2 8 65 2 spare
3 3 8 49 3 spare /dev/sdd1
/dev/loop13:
Magic : a92b4efc
Version : 0.90.00
UUID : dc7b216a:36b68a65:c395db1e:b55a1d97
Creation Time : Mon Nov 9 06:46:41 2009
Raid Level : raid6
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 3907039744 (3726.04 GiB 4000.81 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 0
Update Time : Sun Apr 15 00:38:10 2012
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Checksum : a06dc07 - correct
Events : 46
Layout : left-symmetric
Chunk Size : 4K
Number Major Minor RaidDevice State
this 1 8 33 1 active sync /dev/sdc1
0 0 8 17 0 active sync
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 65 3 active sync
4 4 8 113 4 active sync
5 5 8 97 5 active sync /dev/sdg1
/dev/loop14:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri May 18 04:32:55 2012
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 4
Preferred Minor : 127
Update Time : Fri May 18 05:02:45 2012
State : active
Active Devices : 0
Working Devices : 4
Failed Devices : 0
Spare Devices : 4
Checksum : 82bfad4c - correct
Events : 1
Number Major Minor RaidDevice State
this 1 8 145 1 spare /dev/sdj1
0 0 8 177 0 spare
1 1 8 145 1 spare /dev/sdj1
2 2 8 65 2 spare
3 3 8 49 3 spare /dev/sdd1
/dev/loop15:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri May 18 04:32:55 2012
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 4
Preferred Minor : 127
Update Time : Fri May 18 05:02:45 2012
State : active
Active Devices : 0
Working Devices : 4
Failed Devices : 0
Spare Devices : 4
Checksum : 82bfacfe - correct
Events : 1
Number Major Minor RaidDevice State
this 2 8 65 2 spare
0 0 8 177 0 spare
1 1 8 145 1 spare /dev/sdj1
2 2 8 65 2 spare
3 3 8 49 3 spare /dev/sdd1
/dev/loop16:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri May 18 04:32:55 2012
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 4
Preferred Minor : 127
Update Time : Fri May 18 05:02:45 2012
State : active
Active Devices : 0
Working Devices : 4
Failed Devices : 0
Spare Devices : 4
Checksum : 82bfad6a - correct
Events : 1
Number Major Minor RaidDevice State
this 0 8 177 0 spare
0 0 8 177 0 spare
1 1 8 145 1 spare /dev/sdj1
2 2 8 65 2 spare
3 3 8 49 3 spare /dev/sdd1
/dev/loop17:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Wed May 16 07:23:49 2012
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 1
Preferred Minor : 127
Update Time : Wed May 16 09:23:39 2012
State : active
Active Devices : 0
Working Devices : 1
Failed Devices : 0
Spare Devices : 1
Checksum : 82baca2e - correct
Events : 1
Number Major Minor RaidDevice State
this 0 8 17 0 spare
0 0 8 17 0 spare
이제 하나의 이미지에만 공격대 정보에 UUID가 있습니다.
어레이를 파괴하거나 모든 것을 다시 이미지화하고 싶지 않습니다.
솔직히 말해서 제가 뭘 했는지 잘 기억이 나지 않아서 길을 잃었을 수도 있어요. 하지만 먼저 조언을 구하지 않고 더 파괴적인 트릭을 시도하고 싶지 않습니다.
누군가가 이 이미지에서 RAID6 어레이를 재구성하는 데 도움을 줄 수 있습니까? 아니면 절박한 상황인가요?
감사해요,