기존 Raid0 어레이에 4개의 1.8TB HDD(2TB)가 있습니다. /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Mar 31 21:34:58 2017
Raid Level : raid0
Array Size : 7813533696 (7.28 TiB 8.00 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
최근에 Raid0에 2x 3.7TB(4TB) NVMe를 /dev/md126으로 추가한 다음 선택한 raid1 장치인 /dev/md0에 추가했습니다.
mdadm --create /dev/md0 --force --level=1 --raid-devices=1 /dev/md126
mkfs.ext4 -F /dev/md0을 사용하여 포맷하고 rsync를 사용하여 설치된 md127 스트라이프의 내용을 복사합니다.
그런 다음 이미지에 두 번째 raid0을 추가했습니다.
mdadm --grow /dev/md0 --raid-devices=2 --add /dev/md127
동기화가 완료된 후 /dev/md0 raid01 장치를 마운트하려고 시도했지만 다음 메시지와 함께 실패합니다. "마운트: 잘못된 파일 시스템 유형, 잘못된 옵션, /dev/md0의 잘못된 슈퍼 블록, 코드 페이지나 도우미 누락, 기타 오류 ."
흥미롭게도 raid1을 중지하고 스트립 중 하나를 마운트하려고 하면 스트립 중 하나도 마운트하지 못하고 청소해야 한다는 메시지가 표시됩니다. Dimes는 "그룹 0의 블록 비트맵이 그룹(XXXXXX 블록)에 없으며 그룹 설명자가 손상되었습니다"를 표시합니다.
기존 데이터가 포함된 디스크를 dmraid raid1에 추가하면 데이터가 보존될 것이라는 인상을 받았는데, 그렇지 않습니까?
이 문제를 해결하는 "올바른 방법"은 무엇입니까? 데이터 백업이 있습니다. 간단히 마운트된 md0 장치로 복원할 수 있습니까? 아니면 RAID를 지우고 다시 시작해야 합니까?
추가 정보는 다음과 같습니다.
cat /proc/mdstat
Personalities : [raid0] [raid1]
md0 : active raid1 md126[1] md127[0]
7813401600 blocks super 1.2 [2/2] [UU]
bitmap: 0/59 pages [0KB], 65536KB chunk
md126 : active raid0 nvme1n1[1] nvme0n1[0]
8001308672 blocks super 1.2 512k chunks
md127 : active raid0 sdd[1] sdb[0] sda[3] sdc[2]
7813533696 blocks super 1.2 512k chunks
mdadm -D /dev/XXX
/dev/md0:
Version : 1.2
Creation Time : Sun Oct 29 17:34:29 2023
Raid Level : raid1
Array Size : 7813401600 (7.28 TiB 8.00 TB)
Used Dev Size : 7813401600 (7.28 TiB 8.00 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Oct 30 05:13:32 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : bbox-arch:0 (local to host bbox-arch)
UUID : ddec046f:e66d65b9:9c08802e:ef314054
Events : 7846
Number Major Minor RaidDevice State
0 9 127 0 active sync /dev/md/nas:0
1 9 126 1 active sync /dev/md/bbox-arch:0
/dev/md126:
Version : 1.2
Creation Time : Sun Oct 22 17:53:50 2023
Raid Level : raid0
Array Size : 8001308672 (7.45 TiB 8.19 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Oct 22 17:53:50 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : -unknown-
Chunk Size : 512K
Consistency Policy : none
Name : bbox-arch:0 (local to host bbox-arch)
UUID : 8f382f5f:ac064177:81ebd680:bdcc03ea
Events : 0
Number Major Minor RaidDevice State
0 259 5 0 active sync /dev/nvme0n1
1 259 6 1 active sync /dev/nvme1n1
/dev/md127:
Version : 1.2
Creation Time : Fri Mar 31 21:34:58 2017
Raid Level : raid0
Array Size : 7813533696 (7.28 TiB 8.00 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri Mar 31 21:34:58 2017
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : -unknown-
Chunk Size : 512K
Consistency Policy : none
Name : nas:0
UUID : c24bdcd4:4df06194:67f69cea:60916fc8
Events : 0
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 48 1 active sync /dev/sdd
2 8 32 2 active sync /dev/sdc
3 8 0 3 active sync /dev/sda
lsblk의 출력
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdb 8:16 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdc 8:32 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdd 8:48 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
...
nvme0n1 259:5 0 3.7T 0 disk
└─md126 9:126 0 7.5T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
nvme1n1 259:6 0 3.7T 0 disk
└─md126 9:126 0 7.5T 0 raid0
└─md0 9:0 0 7.3T 0 raid1