운영 체제 디스크에 생성된 ceph osd의 크기를 늘리는 방법

운영 체제 디스크에 생성된 ceph osd의 크기를 늘리는 방법

저는 ceph 세계를 처음 접했고 가상 서버에서 ceph 클러스터를 테스트하고 있습니다.

다음을 기반으로 osd를 만들고 있습니다. https://docs.ceph.com/docs/dumpling/start/quick-ceph-deploy/#add-ceph-osd-daemons

몇 가지 디렉토리를 만듭니다.

mkdir /tmp/osd0

실행 준비 및 활성화:

ceph-deploy osd prepare {osd-node-name}:/tmp/osd0

ceph-deploy osd activate {osd-node-name}:/tmp/osd0

osd의 사용 가능한 크기는 10Gb에 불과한 것을 확인하세요.

이 크기를 어떻게 늘릴 수 있나요?

아직도 질문이 있습니다:

내 서버에는 raid md0에 2개의 디스크가 있고 raid에 LVM을 만듭니다.

pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md1   vg0 lvm2 a--  <1.82t    0
vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <1.82t    0
lvs
  LV     VG  Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root   vg0 -wi-ao----  1.81t
  swap_1 vg0 -wi-ao---- <4.77g
 lsblk
NAME             MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                8:0    0  1.8T  0 disk
├─sda1             8:1    0    1M  0 part
├─sda2             8:2    0  977M  0 part
│ └─md0            9:0    0  976M  0 raid1 /boot
└─sda3             8:3    0  1.8T  0 part
  └─md1            9:1    0  1.8T  0 raid1
    ├─vg0-swap_1 253:0    0  4.8G  0 lvm   [SWAP]
    └─vg0-root   253:1    0  1.8T  0 lvm   /
sdb                8:16   0  1.8T  0 disk
├─sdb1             8:17   0    1M  0 part
├─sdb2             8:18   0  977M  0 part
│ └─md0            9:0    0  976M  0 raid1 /boot
└─sdb3             8:19   0  1.8T  0 part
  └─md1            9:1    0  1.8T  0 raid1
    ├─vg0-swap_1 253:0    0  4.8G  0 lvm   [SWAP]
    └─vg0-root   253:1    0  1.8T  0 lvm   /

아마도 가장 좋은 방법은 lvm을 사용하여 새로운 파티션을 생성하고 이를 osd에 사용하는 것입니다. 하지만 어떻게 해야 할지 모르겠습니다. 특히 이 디스크에 루트 파티션을 마운트합니다.

관련 정보