최근에 소프트 raid1 2TB 디스크 2개를 4TB raid 1 디스크 2개 세트로 업그레이드했습니다. (바라보다소프트 RAID1 LUKS 디스크를 더 큰 디스크로 교체) 가이드는 훌륭하지만 크기에 대해 두 가지 다른 결과가 나왔고 이를 믿어야 할지 모르겠습니다 df -h
.
/dev/mapper/backup
드라이브 AKA를 팔로우하세요 ./media/backup
md4
root@SRVR:~$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 13G 0 13G 0% /dev
tmpfs 2.6G 888K 2.6G 1% /run
/dev/md127 117G 8.3G 103G 8% /
tmpfs 13G 4.0K 13G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
/dev/mapper/4tb 3.6T 2.3T 1.2T 67% /media/4tb
/dev/mapper/3tb 2.7T 855G 1.8T 33% /media/3tb
/dev/mapper/vm 1.8T 97G 1.7T 6% /media/vm
/dev/mapper/backup 1.8T 1.5T 238G 87% /media/backup
또는 믿다 lsblk
:
root@SRVR:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 3.6T 0 disk
`-sda1 8:1 0 3.6T 0 part
`-md4 9:4 0 3.6T 0 raid1
`-4tb 253:1 0 3.6T 0 crypt /media/4tb
sdb 8:16 0 3.6T 0 disk
`-sdb1 8:17 0 3.6T 0 part
`-md4 9:4 0 3.6T 0 raid1
`-4tb 253:1 0 3.6T 0 crypt /media/4tb
sdc 8:32 0 119.2G 0 disk
`-sdc1 8:33 0 119.2G 0 part
`-md127 9:127 0 119.2G 0 raid1 /
sdd 8:48 0 119.2G 0 disk
`-sdd1 8:49 0 119.2G 0 part
`-md127 9:127 0 119.2G 0 raid1 /
sde 8:64 0 465.8G 0 disk
`-sde1 8:65 0 465.8G 0 part
`-md0 9:0 0 465.6G 0 raid1
sdf 8:80 0 2.7T 0 disk
`-sdf1 8:81 0 2.7T 0 part
`-3tb 253:2 0 2.7T 0 crypt /media/3tb
sdg 8:96 1 1.8T 0 disk
`-sdg1 8:97 1 1.8T 0 part
`-md1 9:1 0 1.8T 0 raid1
`-vm 253:3 0 1.8T 0 crypt /media/vm
sdh 8:112 1 3.6T 0 disk
`-sdh1 8:113 1 3.6T 0 part
`-md2 9:2 0 3.6T 0 raid1
`-backup 253:0 0 3.6T 0 crypt /media/backup
sdi 8:128 1 1.8T 0 disk
`-sdi1 8:129 1 1.8T 0 part
`-md1 9:1 0 1.8T 0 raid1
`-vm 253:3 0 1.8T 0 crypt /media/vm
sdj 8:144 1 3.6T 0 disk
`-sdj1 8:145 1 3.6T 0 part
`-md2 9:2 0 3.6T 0 raid1
`-backup 253:0 0 3.6T 0 crypt /media/backup
그리고 믿으십시오 mdadm
:
root@SRVR:~$ mdadm -D /dev/md4
/dev/md4:
Version : 1.2
Creation Time : Tue Oct 20 00:17:12 2020
Raid Level : raid1
Array Size : 3906885440 (3725.90 GiB 4000.65 GB)
Used Dev Size : 3906885440 (3725.90 GiB 4000.65 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Fri Dec 10 16:00:12 2021
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : GC01SRVR:4 (local to host GC01SRVR)
UUID : 18dfa172:e97bd6ce:9e379633:0e8a0f28
Events : 57617
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
답변1
내 생각엔 lsblk가 df가 사용된 파일 시스템의 일부를 보고하는 장치의 여유 블록을 보고하는 것 같습니다.
다양한 소프트웨어 RAID의 구조를 결정하려면 /proc/mdstat
다음과 같은 보기를 제공해야 합니다.
cat /proc/mdstat
그리고 나서
lvs -o +devices
올바른 볼륨이 올바른 RAID 장치와 연결되어 있는지 확인하십시오. 여전히 차이가 있는 경우 새 장치 크기에 따라 파일 시스템을 확장하거나 크기를 조정하는 것을 잊은 것처럼 장치에서 사용되는 파일 시스템이 (아직) 장치에 적용되지 않았을 수 있습니다. 사용 중인 파일 시스템에 따라 올바른 도구를 사용하여 이 작업을 수행할 수 있습니다. 일반적으로 외부 제품군 파일 시스템의 경우 다음을 사용할 수 있습니다.
resize2fs /dev/mapper/backup
그리고 xfs의 경우 xfs_growfs를 사용해야 합니다.
xfs_growfs /dev/mapper/backup
btrfs 또는 zfs에는 자체 크기 조정 명령이 있으므로 파일 시스템이 무엇인지 확인하도록 하겠습니다.