Raid0+1 - dmraid의 예상치 못한 결과

Raid0+1 - dmraid의 예상치 못한 결과

기존 Raid0 어레이에 4개의 1.8TB HDD(2TB)가 있습니다. /dev/md127

/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

최근에 Raid0에 2x 3.7TB(4TB) NVMe를 /dev/md126으로 추가한 다음 선택한 raid1 장치인 /dev/md0에 추가했습니다.

mdadm --create /dev/md0 --force --level=1 --raid-devices=1 /dev/md126

mkfs.ext4 -F /dev/md0을 사용하여 포맷하고 rsync를 사용하여 설치된 md127 스트라이프의 내용을 복사합니다.

그런 다음 이미지에 두 번째 raid0을 추가했습니다.

mdadm --grow /dev/md0 --raid-devices=2 --add /dev/md127

동기화가 완료된 후 /dev/md0 raid01 장치를 마운트하려고 시도했지만 다음 메시지와 함께 실패합니다. "마운트: 잘못된 파일 시스템 유형, 잘못된 옵션, /dev/md0의 잘못된 슈퍼 블록, 코드 페이지나 도우미 누락, 기타 오류 ."

흥미롭게도 raid1을 중지하고 스트립 중 하나를 마운트하려고 하면 스트립 중 하나도 마운트하지 못하고 청소해야 한다는 메시지가 표시됩니다. Dimes는 "그룹 0의 블록 비트맵이 그룹(XXXXXX 블록)에 없으며 그룹 설명자가 손상되었습니다"를 표시합니다.

기존 데이터가 포함된 디스크를 dmraid raid1에 추가하면 데이터가 보존될 것이라는 인상을 받았는데, 그렇지 않습니까?

이 문제를 해결하는 "올바른 방법"은 무엇입니까? 데이터 백업이 있습니다. 간단히 마운트된 md0 장치로 복원할 수 있습니까? 아니면 RAID를 지우고 다시 시작해야 합니까?

추가 정보는 다음과 같습니다.

cat /proc/mdstat
Personalities : [raid0] [raid1] 
md0 : active raid1 md126[1] md127[0]
      7813401600 blocks super 1.2 [2/2] [UU]
      bitmap: 0/59 pages [0KB], 65536KB chunk

md126 : active raid0 nvme1n1[1] nvme0n1[0]
      8001308672 blocks super 1.2 512k chunks
      
md127 : active raid0 sdd[1] sdb[0] sda[3] sdc[2]
      7813533696 blocks super 1.2 512k chunks
       
mdadm -D /dev/XXX
/dev/md0:
           Version : 1.2
     Creation Time : Sun Oct 29 17:34:29 2023
        Raid Level : raid1
        Array Size : 7813401600 (7.28 TiB 8.00 TB)
     Used Dev Size : 7813401600 (7.28 TiB 8.00 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Mon Oct 30 05:13:32 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : ddec046f:e66d65b9:9c08802e:ef314054
            Events : 7846

    Number   Major   Minor   RaidDevice State
       0       9      127        0      active sync   /dev/md/nas:0
       1       9      126        1      active sync   /dev/md/bbox-arch:0
/dev/md126:
           Version : 1.2
     Creation Time : Sun Oct 22 17:53:50 2023
        Raid Level : raid0
        Array Size : 8001308672 (7.45 TiB 8.19 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Oct 22 17:53:50 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : 8f382f5f:ac064177:81ebd680:bdcc03ea
            Events : 0

    Number   Major   Minor   RaidDevice State
       0     259        5        0      active sync   /dev/nvme0n1
       1     259        6        1      active sync   /dev/nvme1n1
/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Fri Mar 31 21:34:58 2017
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : nas:0
              UUID : c24bdcd4:4df06194:67f69cea:60916fc8
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       48        1      active sync   /dev/sdd
       2       8       32        2      active sync   /dev/sdc
       3       8        0        3      active sync   /dev/sda



lsblk의 출력

NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda           8:0    0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdb           8:16   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdc           8:32   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdd           8:48   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
...
nvme0n1     259:5    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
nvme1n1     259:6    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1

관련 정보