내 웹사이트를 호스팅하기 위한 전용 서버가 있습니다.
df -h
명령을 실행하면 다음과 같은 결과가 출력됩니다.
Filesystem Size Used Avail Use% Mounted on
udev 16G 0 16G 0% /dev
tmpfs 3.2G 322M 2.9G 11% /run
/dev/md2 20G 8.1G 11G 45% /
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/md1 487M 29M 429M 7% /boot
/dev/md3 90G 22G 64G 26% /home
내 서버의 상업용 명칭은 입니다 E3-SSD-2-32 - E3-1225v2 - 32GB - SoftRaid 3x120GB SSD
. 각각 120GB의 SSD 드라이브 3개가 있어야 합니다. 하지만 df 명령의 출력에는 이 정보가 표시되지 않습니다.
내가 뭐 놓친 거 없니?
답변1
3개의 드라이브가 있지만 핫 스페어를 사용하여 RAID1 방식으로 연결된 것으로 보입니다. 고려하다:
Device Boot Start End Sectors Size Id Type
/dev/sda1 * 4096 1050623 1046528 511M fd Linux raid autodetect
/dev/sda2 1050624 42008575 40957952 19.5G fd Linux raid autodetect
/dev/sda3 42008576 233383935 191375360 91.3G fd Linux raid autodetect
/dev/sda4 233383936 234430463 1046528 511M 82 Linux swap / Solaris
sda1, sda2 및 sda3의 크기는 md1, md2, md3 장치의 크기와 일치합니다. RAID5인 경우 120GB 대신 총 240GB가 표시됩니다.
나에게 이것은 sda와 sdb가 RAID1에 연결되어 총 120GB로 표시되는 반면 sdc는 예약되어 전혀 표시되지 않음을 의미합니다.
를 실행하여 이를 확인할 수 있습니다 mdadm --detail /dev/md1
. 나는 다음과 같은 것을 기대하고 있었다
Raid Level : raid1
Array Size : 511 MiB
Raid Devices : 2
Total Devices : 3 <--------
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 1 <--------
Consistency Policy : bitmap
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 - spare /dev/sdc1