저는 ceph 세계를 처음 접했고 가상 서버에서 ceph 클러스터를 테스트하고 있습니다.
다음을 기반으로 osd를 만들고 있습니다. https://docs.ceph.com/docs/dumpling/start/quick-ceph-deploy/#add-ceph-osd-daemons
몇 가지 디렉토리를 만듭니다.
mkdir /tmp/osd0
실행 준비 및 활성화:
ceph-deploy osd prepare {osd-node-name}:/tmp/osd0
ceph-deploy osd activate {osd-node-name}:/tmp/osd0
osd의 사용 가능한 크기는 10Gb에 불과한 것을 확인하세요.
이 크기를 어떻게 늘릴 수 있나요?
아직도 질문이 있습니다:
내 서버에는 raid md0에 2개의 디스크가 있고 raid에 LVM을 만듭니다.
pvs
PV VG Fmt Attr PSize PFree
/dev/md1 vg0 lvm2 a-- <1.82t 0
vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <1.82t 0
lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 1.81t
swap_1 vg0 -wi-ao---- <4.77g
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 977M 0 part
│ └─md0 9:0 0 976M 0 raid1 /boot
└─sda3 8:3 0 1.8T 0 part
└─md1 9:1 0 1.8T 0 raid1
├─vg0-swap_1 253:0 0 4.8G 0 lvm [SWAP]
└─vg0-root 253:1 0 1.8T 0 lvm /
sdb 8:16 0 1.8T 0 disk
├─sdb1 8:17 0 1M 0 part
├─sdb2 8:18 0 977M 0 part
│ └─md0 9:0 0 976M 0 raid1 /boot
└─sdb3 8:19 0 1.8T 0 part
└─md1 9:1 0 1.8T 0 raid1
├─vg0-swap_1 253:0 0 4.8G 0 lvm [SWAP]
└─vg0-root 253:1 0 1.8T 0 lvm /
아마도 가장 좋은 방법은 lvm을 사용하여 새로운 파티션을 생성하고 이를 osd에 사용하는 것입니다. 하지만 어떻게 해야 할지 모르겠습니다. 특히 이 디스크에 루트 파티션을 마운트합니다.