lsblk와 df 간의 디스크 크기 불일치

lsblk와 df 간의 디스크 크기 불일치

최근에 소프트 raid1 2TB 디스크 2개를 4TB raid 1 디스크 2개 세트로 업그레이드했습니다. (바라보다소프트 RAID1 LUKS 디스크를 더 큰 디스크로 교체) 가이드는 훌륭하지만 크기에 대해 두 가지 다른 결과가 나왔고 이를 믿어야 할지 모르겠습니다 df -h.

/dev/mapper/backup드라이브 AKA를 팔로우하세요 ./media/backupmd4

root@SRVR:~$ df -h
Filesystem          Size  Used Avail Use% Mounted on
udev                 13G     0   13G   0% /dev
tmpfs               2.6G  888K  2.6G   1% /run
/dev/md127          117G  8.3G  103G   8% /
tmpfs                13G  4.0K   13G   1% /dev/shm
tmpfs               5.0M     0  5.0M   0% /run/lock
/dev/mapper/4tb     3.6T  2.3T  1.2T  67% /media/4tb
/dev/mapper/3tb     2.7T  855G  1.8T  33% /media/3tb
/dev/mapper/vm      1.8T   97G  1.7T   6% /media/vm
/dev/mapper/backup  1.8T  1.5T  238G  87% /media/backup

또는 믿다 lsblk:

root@SRVR:~$ lsblk
NAME         MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda            8:0    0   3.6T  0 disk  
`-sda1         8:1    0   3.6T  0 part  
  `-md4        9:4    0   3.6T  0 raid1 
    `-4tb    253:1    0   3.6T  0 crypt /media/4tb
sdb            8:16   0   3.6T  0 disk  
`-sdb1         8:17   0   3.6T  0 part  
  `-md4        9:4    0   3.6T  0 raid1 
    `-4tb    253:1    0   3.6T  0 crypt /media/4tb
sdc            8:32   0 119.2G  0 disk  
`-sdc1         8:33   0 119.2G  0 part  
  `-md127      9:127  0 119.2G  0 raid1 /
sdd            8:48   0 119.2G  0 disk  
`-sdd1         8:49   0 119.2G  0 part  
  `-md127      9:127  0 119.2G  0 raid1 /
sde            8:64   0 465.8G  0 disk  
`-sde1         8:65   0 465.8G  0 part  
  `-md0        9:0    0 465.6G  0 raid1 
sdf            8:80   0   2.7T  0 disk  
`-sdf1         8:81   0   2.7T  0 part  
  `-3tb      253:2    0   2.7T  0 crypt /media/3tb
sdg            8:96   1   1.8T  0 disk  
`-sdg1         8:97   1   1.8T  0 part  
  `-md1        9:1    0   1.8T  0 raid1 
    `-vm     253:3    0   1.8T  0 crypt /media/vm
sdh            8:112  1   3.6T  0 disk  
`-sdh1         8:113  1   3.6T  0 part  
  `-md2        9:2    0   3.6T  0 raid1 
    `-backup 253:0    0   3.6T  0 crypt /media/backup
sdi            8:128  1   1.8T  0 disk  
`-sdi1         8:129  1   1.8T  0 part  
  `-md1        9:1    0   1.8T  0 raid1 
    `-vm     253:3    0   1.8T  0 crypt /media/vm
sdj            8:144  1   3.6T  0 disk  
`-sdj1         8:145  1   3.6T  0 part  
  `-md2        9:2    0   3.6T  0 raid1 
    `-backup 253:0    0   3.6T  0 crypt /media/backup

그리고 믿으십시오 mdadm:

root@SRVR:~$ mdadm -D /dev/md4
/dev/md4:
           Version : 1.2
     Creation Time : Tue Oct 20 00:17:12 2020
        Raid Level : raid1
        Array Size : 3906885440 (3725.90 GiB 4000.65 GB)
     Used Dev Size : 3906885440 (3725.90 GiB 4000.65 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Fri Dec 10 16:00:12 2021
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : GC01SRVR:4  (local to host GC01SRVR)
              UUID : 18dfa172:e97bd6ce:9e379633:0e8a0f28
            Events : 57617

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

답변1

내 생각엔 lsblk가 df가 사용된 파일 시스템의 일부를 보고하는 장치의 여유 블록을 보고하는 것 같습니다.

다양한 소프트웨어 RAID의 구조를 결정하려면 /proc/mdstat 다음과 같은 보기를 제공해야 합니다.

cat /proc/mdstat

그리고 나서

lvs -o +devices

올바른 볼륨이 올바른 RAID 장치와 연결되어 있는지 확인하십시오. 여전히 차이가 있는 경우 새 장치 크기에 따라 파일 시스템을 확장하거나 크기를 조정하는 것을 잊은 것처럼 장치에서 사용되는 파일 시스템이 (아직) 장치에 적용되지 않았을 수 있습니다. 사용 중인 파일 시스템에 따라 올바른 도구를 사용하여 이 작업을 수행할 수 있습니다. 일반적으로 외부 제품군 파일 시스템의 경우 다음을 사용할 수 있습니다.

resize2fs /dev/mapper/backup

그리고 xfs의 경우 xfs_growfs를 사용해야 합니다.

xfs_growfs /dev/mapper/backup

btrfs 또는 zfs에는 자체 크기 조정 명령이 있으므로 파일 시스템이 무엇인지 확인하도록 하겠습니다.

관련 정보