df 명령의 출력을 이해하는 방법

df 명령의 출력을 이해하는 방법

내 웹사이트를 호스팅하기 위한 전용 서버가 있습니다.

df -h명령을 실행하면 다음과 같은 결과가 출력됩니다.

Filesystem      Size  Used Avail Use% Mounted on
udev             16G     0   16G   0% /dev
tmpfs           3.2G  322M  2.9G  11% /run
/dev/md2         20G  8.1G   11G  45% /
tmpfs            16G     0   16G   0% /dev/shm
tmpfs           5.0M     0  5.0M   0% /run/lock
tmpfs            16G     0   16G   0% /sys/fs/cgroup
/dev/md1        487M   29M  429M   7% /boot
/dev/md3         90G   22G   64G  26% /home

내 서버의 상업용 명칭은 입니다 E3-SSD-2-32 - E3-1225v2 - 32GB - SoftRaid 3x120GB SSD. 각각 120GB의 SSD 드라이브 3개가 있어야 합니다. 하지만 df 명령의 출력에는 이 정보가 표시되지 않습니다.

내가 뭐 놓친 거 없니?

답변1

3개의 드라이브가 있지만 핫 스페어를 사용하여 RAID1 방식으로 연결된 것으로 보입니다. 고려하다:

Device     Boot     Start       End   Sectors  Size Id Type
/dev/sda1  *         4096   1050623   1046528  511M fd Linux raid autodetect
/dev/sda2         1050624  42008575  40957952 19.5G fd Linux raid autodetect
/dev/sda3        42008576 233383935 191375360 91.3G fd Linux raid autodetect
/dev/sda4       233383936 234430463   1046528  511M 82 Linux swap / Solaris

sda1, sda2 및 sda3의 크기는 md1, md2, md3 장치의 크기와 일치합니다. RAID5인 경우 120GB 대신 총 240GB가 표시됩니다.

나에게 이것은 sda와 sdb가 RAID1에 연결되어 총 120GB로 표시되는 반면 sdc는 예약되어 전혀 표시되지 않음을 의미합니다.

를 실행하여 이를 확인할 수 있습니다 mdadm --detail /dev/md1. 나는 다음과 같은 것을 기대하고 있었다

       Raid Level : raid1
        Array Size : 511 MiB
      Raid Devices : 2
     Total Devices : 3    <--------

             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1    <--------

Consistency Policy : bitmap

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

       2       8       33        -      spare         /dev/sdc1

관련 정보