갑자기 종료된 후 RAID-5의 두 디스크 멤버 중 하나가 보이지 않게 됩니까?

갑자기 종료된 후 RAID-5의 두 디스크 멤버 중 하나가 보이지 않게 됩니까?

RAID-5로 조립된 두 개의 디스크(sda와 sdc, 다른 것의 운명은 모르겠습니다)가 있습니다. 몇 번의 갑작스러운 종료 이후 공격대원 중 한 명이 투명해져서 다시 조립할 수 없게 되었습니다. 저는 RAID-5를 포함한 Linux 파일 시스템에 익숙하지 않습니다. 내가 아는 한 RAID-5로 인해 파일이 손실되지는 않지만 내 sdc 디스크가 손상되었는지, 그렇지 않은 경우 정보 손실 없이 재조립할 수 있는지 또는 손상되었는지는 알 수 없습니다. 어떻게 액세스합니까? 내 서류들. 도움을 주시면 감사하겠습니다!

$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT

NAME     SIZE FSTYPE                        TYPE MOUNTPOINT
loop0   27,1M squashfs                      loop /snap/snapd/7264
loop1     55M squashfs                      loop /snap/core18/1705
loop2  240,8M squashfs                      loop /snap/gnome-3-34-1804/24
loop3   62,1M squashfs                      loop /snap/gtk-common-themes/1506
loop4   49,8M squashfs                      loop /snap/snap-store/433
sda      3,7T promise_fasttrack_raid_member disk 
└─sda1   3,7T linux_raid_member             part 
sdb    465,8G                               disk 
├─sdb1 186,4G ext4                          part /
├─sdb2     1K                               part 
├─sdb3 268,2G ext4                          part /home
└─sdb5  11,2G swap                          part [SWAP]

그리고

$sudo parted -l

Model: ATA WDC WD40EZRX-00S (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  4001GB  4001GB  ext4               raid


Model: ATA Samsung SSD 840 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags: 

Number  Start   End    Size    Type      File system     Flags
 1      1049kB  200GB  200GB   primary   ext4            boot
 2      200GB   212GB  12,0GB  extended
 5      200GB   212GB  12,0GB  logical   linux-swap(v1)
 3      212GB   500GB  288GB   primary   ext4

Ubuntu의 "디스크" 애플리케이션에서만 볼 수 있으며 sdc 디스크의 경우 "미디어 없음"이라고 표시됩니다.

여기에 이미지 설명을 입력하세요.

sda 파티션이 맞는 것 같습니다.

여기에 이미지 설명을 입력하세요.

다시 조립할 수가 없어요

sudo mdadm --assemble --scan

우분투 20을 업그레이드하는 동안 다음 오류가 발생합니다.

grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdc1.
grub-probe: error: cannot read `/dev/sdc1': Input/output error.

고쳐 쓰다:

재부팅 후 디스크가 표시되었습니다(이유와 방법을 모르겠습니다). 하지만 여전히 조립과 설치가 불가능합니다.

$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME     SIZE FSTYPE                        TYPE MOUNTPOINT
loop0     55M squashfs                      loop /snap/core18/1705
loop1   61,9M squashfs                      loop /snap/core20/1270
loop2   62,1M squashfs                      loop /snap/gtk-common-themes/1506
loop3  108,1M squashfs                      loop /snap/remmina/5130
loop4   49,8M squashfs                      loop /snap/snap-store/433
loop5  240,8M squashfs                      loop /snap/gnome-3-34-1804/24
loop6   27,1M squashfs                      loop /snap/snapd/7264
loop7  247,9M squashfs                      loop /snap/gnome-3-38-2004/87
loop8   55,5M squashfs                      loop /snap/core18/2284
loop9   43,4M squashfs                      loop /snap/snapd/14549
loop10     4K squashfs                      loop /snap/bare/5
loop11  65,2M squashfs                      loop /snap/gtk-common-themes/1519
loop12  54,2M squashfs                      loop /snap/snap-store/558
loop13   219M squashfs                      loop /snap/gnome-3-34-1804/77
sda      3,7T promise_fasttrack_raid_member disk 
└─sda1   3,7T linux_raid_member             part 
sdb    465,8G                               disk 
├─sdb1 186,4G ext4                          part /
├─sdb2     1K                               part 
├─sdb3 268,2G ext4                          part /home
└─sdb5  11,2G swap                          part [SWAP]
sdc      3,7T promise_fasttrack_raid_member disk 
└─sdc1   3,7T linux_raid_member             part 

mdadm 어셈블리를 시도한 후 설치를 시도했지만 실패했습니다.

$ sudo mdadm --assemble --scan --force
$ sudo mount /dev/md0 /home/bilgen/
mount: /home/person: can't read superblock on /dev/md0.


$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdc1[2] sda1[1]
      7813771264 blocks super 1.2
       
unused devices: <none>


$ sudo mdadm --examine --scan
ARRAY /dev/md/0  metadata=1.2 UUID=92fd33d9:351dcee8:c809916a:b46055e5 name=zencefil:0

RAID 디스크 sda1 및 sdc1을 확인합니다. sda1의 상태는 clean인데 sdc1의 상태는 active입니다. 나는 이것이 문제를 디버깅하는 데 중요하다고 생각합니다. RAID-5인 것을 확인했는데, 컴퓨터를 받았을 때 디스크가 2개밖에 없었기 때문에 디스크 중 하나가 손상되었을 것입니다. 이제 나는 그것을 깨달았다.

$ sudo mdadm -E /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
           Name : zencefil:0
  Creation Time : Thu Mar 12 00:17:27 2015
     Raid Level : **raid5**
   Raid Devices : **3**

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
  Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          **State : clean**
    Device UUID : 6212bf12:f2bacb20:6a10a588:ac50cb2d

    Update Time : Mon Jan 24 20:04:23 2022
       Checksum : cfb60638 - correct
         Events : 6360009

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

$ sudo mdadm -E /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
           Name : zencefil:0
  Creation Time : Thu Mar 12 00:17:27 2015
     Raid Level : **raid5**
   Raid Devices : **3**

 Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
     Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
  Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1024 sectors
          **State : active**
    Device UUID : daef079b:176d487a:cb152bdb:3d2548f9

    Update Time : Mon Jan 24 20:04:23 2022
       Checksum : cf7e70ca - correct
         Events : 6360009

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)

메시지는 상황을 알리는 데 도움이 될 수 있습니다.

dmesg | grep md0
[    8.147671] md/raid:md0: not clean -- starting background reconstruction
[    8.147750] md/raid:md0: device sdc1 operational as raid disk 2
[    8.147755] md/raid:md0: device sda1 operational as raid disk 1
[    8.149553] md/raid:md0: cannot start dirty degraded array.
[    8.149943] md/raid:md0: failed to run raid set.
[ 2878.821074] EXT4-fs (md0): unable to read superblock

상황이 점점 더 흥미로워지고 있어요

mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Mar 12 00:17:27 2015
        Raid Level : raid5
     Used Dev Size : 18446744073709551615
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Jan 24 20:04:23 2022
             State : active, FAILED, Not Started 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : unknown

              Name : zencefil:0
              UUID : 92fd33d9:351dcee8:c809916a:b46055e5
            Events : 6360009

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       -       0        0        2      removed

       -       8        1        1      sync   /dev/sda1
       -       8       33        2      sync   /dev/sdc1

관련 정보