sda
내 시스템의 기존 400GB 디스크()에 2.5TB를 추가 해야 합니다 . 새로운 2.5TB 가상 디스크( sdb
)를 추가하고 fdisk를 계속 사용하여 파티션 테이블을 생성했습니다.
, 를 사용하여 pvcreate /dev/sdb1
물리 볼륨을 생성한 다음 볼륨 그룹을 확장하고 마지막으로 논리 볼륨을 확장합니다.
xfs_grow2fs
마지막으로 식별을 위해 파일 시스템을 사용했습니다 . 그제서야 MBR 제한으로 인해 새 디스크에서 2.5TB 중 2TB만 얻었음을 깨달았습니다.
sda에 영향을 주지 않고 이 드라이브를 GPT로 변환할 수 있습니까? 이러한 이동이 xfs_grow2fs
사용량으로 인해 파일 시스템에 영향을 미치나요? 최악의 시나리오는 0.5TB 손실입니다.
CentOS 7을 사용합니다.
lsblk
명령 출력
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
fd0 2:0 1 4K 0 disk
sda 8:0 0 420G 0 disk
├─sda1 8:1 0 500M 0 part /boot
└─sda2 8:2 0 419.5G 0 part
├─centos_sftp-root 253:0 0 15G 0 lvm /
├─centos_sftp-swap 253:1 0 2G 0 lvm [SWAP]
└─centos_sftp-home 253:2 0 2.4T 0 lvm /home
sdb 8:16 0 2.5T 0 disk
└─sdb1 8:17 0 2T 0 part
└─centos_sftp-home 253:2 0 2.4T 0 lvm /home
sr0 11:0 1 1024M 0 rom
lvs
주문하다
LV VG Attr LSize Pool Origin Data% Meta% Move Log
Cpy%Sync Convert
home centos_sftp -wi-ao---- 2.39t
root centos_sftp -wi-ao---- 15.00g
swap centos_sftp -wi-ao---- 2.00g
df
주문하다
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos_sftp-root 15G 2.7G 13G 18% /
devtmpfs 2.9G 0 2.9G 0% /dev
tmpfs 2.9G 0 2.9G 0% /dev/shm
tmpfs 2.9G 8.6M 2.9G 1% /run
tmpfs 2.9G 0 2.9G 0% /sys/fs/cgroup
/dev/mapper/centos_sftp-home 2.4T 103G 2.3T 5% /home
/dev/sda1 497M 171M 326M 35% /boot
tmpfs 581M 0 581M 0% /run/user/1000
tmpfs 581M 0 581M 0% /run/user/0
한 번은 xfs_growfs
2.5TB를 추가로 사용하기 위해 집을 확장했지만 MBR 제한으로 인해 새 디스크에서 2TB만 얻었습니다.
산출fdisk -l /dev/sdb
Disk /dev/sdb: 2748.8 GB, 2748779069440 bytes, 5368709120 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x3633c5d9
Device Boot Start End Blocks Id System
/dev/sdb1 2048 4294967294 2147482623+ 8e Linux LVM
답변1
MBR 파티션은 /dev/sdb1
오프셋 1MB에서 시작됩니다. 첫 번째 GPT 파티션도 오프셋 1MB에서 시작되기 때문에 이는 좋습니다.
따라서 현재 파티션을 삭제 fdisk
하고 g
. 이 파티션의 LVM 유형을 선택하십시오.w
이 명령을 사용하기 전에 새 파티션의 시작 오프셋이 이전 파티션의 오프셋과 동일한지 확인하세요. 그렇지 않으면 모든 데이터가 손실됩니다.
이제 MBR의 2TB 제한 대신 2.5TB의 전체 범위를 사용할 수 있습니다. 변경 사항을 디스크에 쓰고 재부팅합니다. fdisk -l
변경사항이 정상인지 확인 하는데 사용됩니다 sdb
. 이제 2.5TB를 사용할 수 있습니다. 이제 볼륨 그룹과 물리 볼륨의 크기를 조정할 차례입니다.
pvresize /dev/sdb1
새로운 추가 공간의 크기를 적절하게 조정 하는 데 사용됩니다 . 그런 다음 lvresize
논리 볼륨 그룹의 크기를 조정하는 데 사용됩니다 . 마지막으로 xfs_growfs
파일 시스템을 추가합니다. df
마지막으로 변경 사항을 확인하는 데 사용됩니다.
마지막 부분은 참고하시면 됩니다이 기사.