![갑자기 종료된 후 RAID-5의 두 디스크 멤버 중 하나가 보이지 않게 됩니까?](https://linux55.com/image/201450/%EA%B0%91%EC%9E%90%EA%B8%B0%20%EC%A2%85%EB%A3%8C%EB%90%9C%20%ED%9B%84%20RAID-5%EC%9D%98%20%EB%91%90%20%EB%94%94%EC%8A%A4%ED%81%AC%20%EB%A9%A4%EB%B2%84%20%EC%A4%91%20%ED%95%98%EB%82%98%EA%B0%80%20%EB%B3%B4%EC%9D%B4%EC%A7%80%20%EC%95%8A%EA%B2%8C%20%EB%90%A9%EB%8B%88%EA%B9%8C%3F.png)
RAID-5로 조립된 두 개의 디스크(sda와 sdc, 다른 것의 운명은 모르겠습니다)가 있습니다. 몇 번의 갑작스러운 종료 이후 공격대원 중 한 명이 투명해져서 다시 조립할 수 없게 되었습니다. 저는 RAID-5를 포함한 Linux 파일 시스템에 익숙하지 않습니다. 내가 아는 한 RAID-5로 인해 파일이 손실되지는 않지만 내 sdc 디스크가 손상되었는지, 그렇지 않은 경우 정보 손실 없이 재조립할 수 있는지 또는 손상되었는지는 알 수 없습니다. 어떻게 액세스합니까? 내 서류들. 도움을 주시면 감사하겠습니다!
$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
loop0 27,1M squashfs loop /snap/snapd/7264
loop1 55M squashfs loop /snap/core18/1705
loop2 240,8M squashfs loop /snap/gnome-3-34-1804/24
loop3 62,1M squashfs loop /snap/gtk-common-themes/1506
loop4 49,8M squashfs loop /snap/snap-store/433
sda 3,7T promise_fasttrack_raid_member disk
└─sda1 3,7T linux_raid_member part
sdb 465,8G disk
├─sdb1 186,4G ext4 part /
├─sdb2 1K part
├─sdb3 268,2G ext4 part /home
└─sdb5 11,2G swap part [SWAP]
그리고
$sudo parted -l
Model: ATA WDC WD40EZRX-00S (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 4001GB 4001GB ext4 raid
Model: ATA Samsung SSD 840 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:
Number Start End Size Type File system Flags
1 1049kB 200GB 200GB primary ext4 boot
2 200GB 212GB 12,0GB extended
5 200GB 212GB 12,0GB logical linux-swap(v1)
3 212GB 500GB 288GB primary ext4
Ubuntu의 "디스크" 애플리케이션에서만 볼 수 있으며 sdc 디스크의 경우 "미디어 없음"이라고 표시됩니다.
sda 파티션이 맞는 것 같습니다.
다시 조립할 수가 없어요
sudo mdadm --assemble --scan
우분투 20을 업그레이드하는 동안 다음 오류가 발생합니다.
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdc1.
grub-probe: error: cannot read `/dev/sdc1': Input/output error.
고쳐 쓰다:
재부팅 후 디스크가 표시되었습니다(이유와 방법을 모르겠습니다). 하지만 여전히 조립과 설치가 불가능합니다.
$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
loop0 55M squashfs loop /snap/core18/1705
loop1 61,9M squashfs loop /snap/core20/1270
loop2 62,1M squashfs loop /snap/gtk-common-themes/1506
loop3 108,1M squashfs loop /snap/remmina/5130
loop4 49,8M squashfs loop /snap/snap-store/433
loop5 240,8M squashfs loop /snap/gnome-3-34-1804/24
loop6 27,1M squashfs loop /snap/snapd/7264
loop7 247,9M squashfs loop /snap/gnome-3-38-2004/87
loop8 55,5M squashfs loop /snap/core18/2284
loop9 43,4M squashfs loop /snap/snapd/14549
loop10 4K squashfs loop /snap/bare/5
loop11 65,2M squashfs loop /snap/gtk-common-themes/1519
loop12 54,2M squashfs loop /snap/snap-store/558
loop13 219M squashfs loop /snap/gnome-3-34-1804/77
sda 3,7T promise_fasttrack_raid_member disk
└─sda1 3,7T linux_raid_member part
sdb 465,8G disk
├─sdb1 186,4G ext4 part /
├─sdb2 1K part
├─sdb3 268,2G ext4 part /home
└─sdb5 11,2G swap part [SWAP]
sdc 3,7T promise_fasttrack_raid_member disk
└─sdc1 3,7T linux_raid_member part
mdadm 어셈블리를 시도한 후 설치를 시도했지만 실패했습니다.
$ sudo mdadm --assemble --scan --force
$ sudo mount /dev/md0 /home/bilgen/
mount: /home/person: can't read superblock on /dev/md0.
$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdc1[2] sda1[1]
7813771264 blocks super 1.2
unused devices: <none>
$ sudo mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=92fd33d9:351dcee8:c809916a:b46055e5 name=zencefil:0
RAID 디스크 sda1 및 sdc1을 확인합니다. sda1의 상태는 clean인데 sdc1의 상태는 active입니다. 나는 이것이 문제를 디버깅하는 데 중요하다고 생각합니다. RAID-5인 것을 확인했는데, 컴퓨터를 받았을 때 디스크가 2개밖에 없었기 때문에 디스크 중 하나가 손상되었을 것입니다. 이제 나는 그것을 깨달았다.
$ sudo mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Name : zencefil:0
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : **raid5**
Raid Devices : **3**
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1024 sectors
**State : clean**
Device UUID : 6212bf12:f2bacb20:6a10a588:ac50cb2d
Update Time : Mon Jan 24 20:04:23 2022
Checksum : cfb60638 - correct
Events : 6360009
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
$ sudo mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Name : zencefil:0
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : **raid5**
Raid Devices : **3**
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1024 sectors
**State : active**
Device UUID : daef079b:176d487a:cb152bdb:3d2548f9
Update Time : Mon Jan 24 20:04:23 2022
Checksum : cf7e70ca - correct
Events : 6360009
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
메시지는 상황을 알리는 데 도움이 될 수 있습니다.
dmesg | grep md0
[ 8.147671] md/raid:md0: not clean -- starting background reconstruction
[ 8.147750] md/raid:md0: device sdc1 operational as raid disk 2
[ 8.147755] md/raid:md0: device sda1 operational as raid disk 1
[ 8.149553] md/raid:md0: cannot start dirty degraded array.
[ 8.149943] md/raid:md0: failed to run raid set.
[ 2878.821074] EXT4-fs (md0): unable to read superblock
상황이 점점 더 흥미로워지고 있어요
mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : raid5
Used Dev Size : 18446744073709551615
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Jan 24 20:04:23 2022
State : active, FAILED, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : unknown
Name : zencefil:0
UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Events : 6360009
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 8 1 1 sync /dev/sda1
- 8 33 2 sync /dev/sdc1