정전 후 Raid5 다운그레이드 문제

정전 후 Raid5 다운그레이드 문제

8개의 디스크로 구성된 raid5가 있습니다. 정전 이후 mdadm이 레이드 성능이 저하됐다고 하더군요. 출력은 다음과 같습니다.

/dev/md0:
        Version : 0.90
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 7
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Aug  2 18:42:05 2012
          State : clean, degraded
 Active Devices : 7
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
         Events : 0.9189750

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       96        2      active sync   /dev/sdg
       3       8      112        3      active sync   /dev/sdh
       4       8       32        4      active sync   /dev/sdc
       5       8       48        5      active sync   /dev/sdd
       6       8       64        6      active sync   /dev/sde
       7       0        0        7      removed

따라서 /dev/sdf가 누락되었습니다. 그래서 드라이브에 관한 정보를 좀 얻으려고 합니다. smartctl은 문제를 보고하지 않고 fdisk -l예상대로 나열합니다. 마침내 나는 그것을 시도했고 mdadm -E /dev/sdf다음과 같은 결과를 얻었습니다.

/dev/sdf:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0

    Update Time : Wed Mar 28 17:19:58 2012
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0
       Checksum : afeeecc7 - correct
         Events : 9081618

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     7       8      112        7      active sync   /dev/sdh

   0     0       8        0        0      active sync   /dev/sda
   1     1       8       16        1      active sync   /dev/sdb
   2     2       8       32        2      active sync   /dev/sdc
   3     3       8       48        3      active sync   /dev/sdd
   4     4       8       64        4      active sync   /dev/sde
   5     5       8       80        5      active sync   /dev/sdf
   6     6       8       96        6      active sync   /dev/sdg
   7     7       8      112        7      active sync   /dev/sdh

여기서 문제가 무엇입니까? 교체해야 하나요 sdf? 아니면 수리할 수 있나요?

고쳐 쓰다

나도 살펴봤고 dmesg다음과 같은 결과를 얻었습니다.

[    9.289086] md: kicking non-fresh sdf from array!
[    9.289090] md: unbind<sdf>
[    9.296541] md: export_rdev(sdf)

답변1

알겠습니다. 이 질문을 너무 빨리 게시했습니다. 알고 보니 전원이 꺼지면 이런 일이 발생합니다.

방금 드라이브( mdadm /dev/md0 --add /dev/sdf)를 다시 추가했고 mdadm이 어레이 재구축을 시작했습니다.

관련 정보