재구축 실패 후 이상한 상태의 mdraid

재구축 실패 후 이상한 상태의 mdraid

그래서 내 NAS(mdraid level5) 마더보드가 사망하고 새 시스템을 설정했습니다. 거기서 RAID를 재조립하고 재구축을 시작했습니다.

md0 : active raid5 sde4[3] sdc4[0] sdd4[2] sdb4[4]
  8634123072 blocks level 5, 64k chunk, algorithm 2 [4/3] [U_UU]
  [>....................]  recovery =  4.2% (121889248/2878041024) finish=394.4min speed=116448K/sec

몇 시간 후에 다시 돌아왔는데 일부 IO 오류로 인해 재구축이 실패했습니다. 시스템을 재부팅하고 다시 재조립을 시도했지만 이제 모든 드라이브가 여유 공간이 되었습니다.

root@el-kisto:~# mdadm --assemble  /dev/md0 /dev/sd[b-e]4 --verbose
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdb4 is identified as a member of /dev/md0, slot 5.
mdadm: /dev/sdc4 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdd4 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sde4 is identified as a member of /dev/md0, slot 3.
mdadm: added /dev/sdc4 to /dev/md0 as 0 (possibly out of date)
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sde4 to /dev/md0 as 3
mdadm: added /dev/sdb4 to /dev/md0 as 5
mdadm: added /dev/sdd4 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 2 drives and 1 spare - not enough to start the array.

root@el-kisto:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb4[5](S) sdc4[0](S) sdd4[2](S) sde4[3](S)
      11512164096 blocks

mdadm으로 확인하면 다음과 같은 결과가 나타납니다.

mdadm --examine /dev/sd[bcde]4 | egrep 'dev|Update|Role|State|Chunk Size|Events'
/dev/sdb4:
    Update Time : Mon Aug 28 02:05:59 2023
          State : clean
         Events : 2045534
     Chunk Size : 64K
      Number   Major   Minor   RaidDevice State
this     5       8       20        5      spare   /dev/sdb4
   2     2       8       52        2      active sync   /dev/sdd4
   3     3       8       68        3      active sync   /dev/sde4
   4     4       8       36        4      faulty   /dev/sdc4
/dev/sdc4:
    Update Time : Mon Aug 28 01:54:48 2023
          State : clean
         Events : 2045530
     Chunk Size : 64K
      Number   Major   Minor   RaidDevice State
this     0       8       36        0      active sync   /dev/sdc4
   0     0       8       36        0      active sync   /dev/sdc4
   2     2       8       52        2      active sync   /dev/sdd4
   3     3       8       68        3      active sync   /dev/sde4
   4     4       8       20        4      spare   /dev/sdb4
/dev/sdd4:
    Update Time : Mon Aug 28 02:05:59 2023
          State : clean
         Events : 2045534
     Chunk Size : 64K
      Number   Major   Minor   RaidDevice State
this     2       8       52        2      active sync   /dev/sdd4
   2     2       8       52        2      active sync   /dev/sdd4
   3     3       8       68        3      active sync   /dev/sde4
   4     4       8       36        4      faulty   /dev/sdc4
/dev/sde4:
    Update Time : Mon Aug 28 02:05:59 2023
          State : clean
         Events : 2045534
     Chunk Size : 64K
      Number   Major   Minor   RaidDevice State
this     3       8       68        3      active sync   /dev/sde4
   2     2       8       52        2      active sync   /dev/sdd4
   3     3       8       68        3      active sync   /dev/sde4
   4     4       8       36        4      faulty   /dev/sdc4

괜찮아 보입니다. 디스크의 3/4에 대한 이벤트 카운터는 동일하며 후자는 어쨌든 재구축되었습니다. 그런데 MD는 이제 5개의 장치가 있어야 한다고 생각하는 것 같나요? 범인은 sdb4인 것 같습니다. 이는 대기 상태로 자체 식별하고 활성 상태여야 할 때 #5이며 #4는 무엇입니까? --조립 중에 강제로 힘을 가하는 것은 도움이 되지 않습니다. md가 sd[bde]4를 다운그레이드된 4 디스크 어레이로 받아들이도록 어떻게 설득합니까?

관련 정보