/dev/sdc
2개의 8TB 디스크( 및 ) 로 구성된 mdadm RAID1 어레이가 있는 시스템이 있습니다 /dev/sdd
. 이것은 잘 작동하고 위에 많은 데이터를 추가했습니다.
다른 컴퓨터에서 여러 번 테스트를 실행하여 2개의 디스크가 있는 RAID1을 (결국) 5개의 디스크가 있는 RAID5로 확장했는데 예상대로 작동했습니다.
의사도요
2개의 디스크가 있는 RAID1 어레이를 3개의 디스크가 있는 RAID5 어레이로 확장할 때 무엇을 놓치나요? 재부팅 후 어레이가 비활성 상태이고 장치가 누락되었습니다!
내가 뭘 한거지:
- RAID 수준을 5로 변경합니다.
mdadm --grow /dev/md0 -l 5
- 예비 하드 드라이브 추가:
mdadm /dev/md0 --add /dev/sdb
- 새 디스크를 사용하려면 RAID를 추가하세요.
mdadm --grow /dev/md0 -n 3
- 이 이후에 동기화가 시작됩니다.
동기화 중 출력은 다음과 같습니다.
user@server:~$ sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Array Size : 7813894464 (7.28 TiB 8.00 TB)
Used Dev Size : 7813894464 (7.28 TiB 8.00 TB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Aug 25 18:25:21 2022
State : clean, reshaping
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : bitmap
Reshape Status : 24% complete
Delta Devices : 1, (2->3)
Name : ubuntu-server:0
UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
Events : 77556
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
2 8 16 2 active sync /dev/sdb
그리고 디스크:
user@server:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 62M 1 loop /snap/core20/1593
loop1 7:1 0 62M 1 loop /snap/core20/1611
loop2 7:2 0 79.9M 1 loop /snap/lxd/22923
loop3 7:3 0 103M 1 loop /snap/lxd/23541
loop4 7:4 0 44.7M 1 loop /snap/snapd/15534
loop5 7:5 0 47M 1 loop /snap/snapd/16292
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 2G 0 part /boot
└─sda3 8:3 0 929.5G 0 part
└─dm_crypt-1 253:0 0 929.5G 0 crypt
└─ubuntu--vg-lv--0 253:1 0 929.5G 0 lvm /
sdb 8:16 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
sdc 8:32 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
sdd 8:48 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
동기화가 완료된 후 어레이 크기는 여전히 8TB였지만 어레이를 마운트하고 데이터에 액세스할 수 있었습니다(수동으로 늘려야 한다고 가정합니다).
24시간을 지금으로 빨리 감습니다(재부팅 후):
root@server:~# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid5
Total Devices : 2
Persistence : Superblock is persistent
State : inactive
Working Devices : 2
Name : ubuntu-server:0
UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
Events : 85828
Number Major Minor RaidDevice
- 8 32 - /dev/sdc
- 8 48 - /dev/sdd
root@server:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 62M 1 loop /snap/core20/1593
loop1 7:1 0 62M 1 loop /snap/core20/1611
loop2 7:2 0 79.9M 1 loop /snap/lxd/22923
loop3 7:3 0 103M 1 loop /snap/lxd/23541
loop4 7:4 0 44.7M 1 loop /snap/snapd/15534
loop5 7:5 0 47M 1 loop /snap/snapd/16292
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 2G 0 part /boot
└─sda3 8:3 0 929.5G 0 part
└─dm_crypt-1 253:0 0 929.5G 0 crypt
└─ubuntu--vg-lv--0 253:1 0 929.5G 0 lvm /
sdb 8:16 0 7.3T 0 disk
sdc 8:32 0 7.3T 0 disk
└─md0 9:0 0 0B 0 md
sdd 8:48 0 7.3T 0 disk
└─md0 9:0 0 0B 0 md
/dev/sdb
그래서 새로 추가한 HDD( )가 왠지 빠진 것 같아요 ! mdadm --detail --scan --verbose
내 게시물에 의 출력을 추가 /etc/mdadm/mdadm.conf
하고 실행해 update-initramfs -u
보았지만 소용이 없었습니다.
자세한 내용은 여기를 참조하세요:
root@server:~# mdadm --examine /dev/sd[bcd]
/dev/sdb:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
/dev/sdc:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
Name : ubuntu-server:0
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
Data Offset : 263680 sectors
Super Offset : 8 sectors
Unused Space : before=263600 sectors, after=560 sectors
State : clean
Device UUID : cce44b44:6be581c6:ed09e3e8:5a2f5735
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Aug 26 19:56:25 2022
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : 370fd1fa - correct
Events : 85828
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
Name : ubuntu-server:0
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
Data Offset : 263680 sectors
Super Offset : 8 sectors
Unused Space : before=263600 sectors, after=560 sectors
State : clean
Device UUID : 5744d817:29d6e7e7:30e536d7:16d43c13
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Aug 26 19:56:25 2022
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : f83ba242 - correct
Events : 85828
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
root@server:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 metadata=1.2 name=ubuntu-server:0 UUID=9d1e2e6e:14dc5960:011daf54:xxxxxx
devices=/dev/sdb,/dev/sdc,/dev/sdd
root@server:~# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 22.04.1 LTS
Release: 22.04
Codename: jammy
답변1
같은 문제가 있는 사람의 경우:
\dev\sdb
파티션 테이블이 손상되거나 사라지는 등의 원인을 찾지 못했지만 내 문제는 실제로 파티션이 누락된 것 같습니다 .
데이터를 백업하지 않고 뭔가를 하는 것이 너무 마음에 들지 않아서 댓글에서 제안한 대로 했습니다.
- 다운그레이드 어레이
- 예비("장애") 디스크를 사용하여
/dev/sdb
데이터 저장/백업 ( ) - 나머지 두 개의 드라이브를 분할
/dev/sdc
하고/dev/sdd
어레이를 파괴하십시오! - 드라이브 2개로 어레이 다시 만들기
- 데이터를 다시 복사하세요.
- 세 번째(파티션) 디스크 추가
올바른 방향을 알려주셔서 다시 한번 감사드립니다!