RAID 어레이에서 고장난 드라이브 조사

RAID 어레이에서 고장난 드라이브 조사

다음 시나리오에서 무슨 일이 일어날지 확인할 수 있는 방법이 있나요? RAID5처음에 5개의 드라이브가 함께 제공되는 장치가 있습니다 .

현재로서는 다음과 같은 몇 가지 상태가 표시됩니다.

/dev/md/dcp-data:
           Version : 1.2
     Creation Time : Fri Aug 16 14:15:40 2019
        Raid Level : raid5
        Array Size : 23441679360 (22355.73 GiB 24004.28 GB)
     Used Dev Size : 7813893120 (7451.91 GiB 8001.43 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Jan 21 13:00:36 2020
             State : active, degraded, recovering
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

    Rebuild Status : 16% complete

              Name : localhost:dcp-data
              UUID : 0bd03b0a:59e1665c:d393f6fe:a032dac6
            Events : 165561

    Number   Major   Minor   RaidDevice State
       0       8      113        0      active sync   /dev/sdh1
       1       8      129        1      active sync   /dev/sdi1
       5       8      160        2      spare rebuilding   /dev/sdk
       4       8      177        3      active sync   /dev/sdl1
[root@cinesend ~]# lsblk
NAME                                          MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sdc                                             8:32   0 465.8G  0 disk
└─sdc1                                          8:33   0 465.8G  0 part  /mnt/drive-51a7a5af
sdd                                             8:48   0 465.8G  0 disk
└─sdd1                                          8:49   0 465.8G  0 part  /mnt/drive-299a7133
sde                                             8:64   0 223.6G  0 disk
├─sde1                                          8:65   0   200M  0 part  /boot/efi
├─sde2                                          8:66   0   200M  0 part  /boot
└─sde3                                          8:67   0 223.2G  0 part
  └─luks-cf912397-326e-42eb-a729-bce4de6bff14 253:0    0 223.2G  0 crypt /
sdh                                             8:112  0   7.3T  0 disk
└─sdh1                                          8:113  0   7.3T  0 part
  └─md127                                       9:127  0  21.9T  0 raid5 /mnt/library
sdi                                             8:128  0   7.3T  0 disk
└─sdi1                                          8:129  0   7.3T  0 part
  └─md127                                       9:127  0  21.9T  0 raid5 /mnt/library
sdj                                             8:144  0   7.3T  0 disk
sdk                                             8:160  0   7.3T  0 disk
└─md127                                         9:127  0  21.9T  0 raid5 /mnt/library
sdl                                             8:176  0   7.3T  0 disk
└─sdl1                                          8:177  0   7.3T  0 part
  └─md127                                       9:127  0  21.9T  0 raid5 /mnt/library

관련 이메일:

Date: Tue, 21 Jan 2020 07:59:30 -0800 (PST)

This is an automatically generated mail message from mdadm
running on cinesend

A DegradedArray event had been detected on md device /dev/md127.

Faithfully yours, etc.

P.S. The /proc/mdstat file currently contains the following:

Personalities : [raid6] [raid5] [raid4]
md127 : active (auto-read-only) raid5 sdh1[0] sdl1[4] sdi1[1] sdk[5](S)
      23441679360 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UU_U]
      bitmap: 0/59 pages [0KB], 65536KB chunk

여기서 무슨 일이 일어나고 있는 걸까요? 배열 /dev/sdj에 포함되어 있어야 합니다. 이제 어레이의 재구축/복원이 진행되고 있는 RAID5것을 볼 수 있습니다 ./dev/sdk

하지만 RAID5는 두 개의 드라이브 오류를 견딜 수 없어야 하지 않나요?

여기서 무슨 일이 일어나고 있는지에 대한 가능한 시나리오는 무엇입니까?

관련 정보