ceph

cephadm - SSH 네트워크를 모니터링 네트워크에서 분리하는 방법
ceph

cephadm - SSH 네트워크를 모니터링 네트워크에서 분리하는 방법

저희 회사에서는 Ceph-ansible을 배포자(업그레이드, 확장 작업 등)로 사용하면서 수년간 Ceph를 사용해 왔습니다. 최근에는 설치 및 2일차 작업을 위해 "cephadm"으로 마이그레이션하라는 임무를 받았습니다. POC를 수행하는 동안 두 가지 문제에 직면했는데 그 중 하나가 다른 것보다 더 정확했습니다. ceph-ansible과 관련된 다양한 독립 네트워크가 있습니다. ㅏ. SSH 관련 네트워크를 구성하고 Ceph 관련 호스트(mons/osds/clients가 있는 노드)에서 원격으로 ...

Admin

별도의 복제된 메타데이터 풀 없이 삭제 코딩된 ceph 풀에서 ceph rbd를 실행할 수 있습니까?
ceph

별도의 복제된 메타데이터 풀 없이 삭제 코딩된 ceph 풀에서 ceph rbd를 실행할 수 있습니까?

나는 ceph를 처음 접했기 때문에 이것이 상식이라면 용서해 주지만 찾을 수 없습니다. 이것은 간단한 질문처럼 보이지만 확실한 답을 찾을 수 없습니다. 2017년에 EC 풀의 RBD가 처음 구현되었을 때 EC 풀에 실제 데이터를 저장하려면 RBD 메타데이터를 저장할 별도의 복제 풀이 있어야 했습니다. 아직도 사실인가요? 아니면 이제 rbd를 생성하기 위해 두 개의 풀을 관리할 필요가 없도록 메타데이터를 동일한 ec_pool에 저장할 수 있는 방법이 있습니까? ...

Admin

Linux에서 ceph xattrs를 제거할 수 없습니다.
ceph

Linux에서 ceph xattrs를 제거할 수 없습니다.

CephFS의 할당량 제한에 대해 xattrs를 설정했습니다. $ setfattr -n ceph.quota.max_bytes -v 1100000000 /mnt/cephfs/data/ 이 속성의 가치를 얻을 수 있습니다. $ getfattr -n ceph.quota.max_bytes /mnt/cephfs/data/ getfattr: Removing leading '/' from absolute path names # file: mnt/cephfs/data/ ceph.quota.max_bytes="1...

Admin

Ceph 비복제 풀(복제 1)
ceph

Ceph 비복제 풀(복제 1)

10개 노드 클러스터가 있습니다. 복제되지 않은 풀(복제 1)을 생성하고 이에 대해 몇 가지 질문을 하고 싶습니다. 내 사용 사례를 알려 드리겠습니다. 데이터 손실에는 관심이 없습니다. 내 모든 데이터는 쓰레기입니다. 이러한 쓰레기 파일은 일반적으로 1KB에서 32MB 사이입니다. 해당 파일은 5일 이내에 삭제됩니다. 쓰기 가능 공간과 I/O 속도가 더 중요합니다. 쓰기/읽기/삭제 볼륨이 하루 최소 200GB로 높습니다. 문제가 발생하면 전체 클러스터에 액세스할 수 없게 될까봐 걱정됩니다. 데이터...

Admin

Ceph 위에 있는 DRBD
ceph

Ceph 위에 있는 DRBD

Ceph 풀에서 DRBD를 직접 실행할 수 있습니까? 파일이 디스크에 직접 저장되는 백업 시스템이 있습니다. Ceph는 오프사이트 백업 시스템의 모든 디스크에 설치 및 구성됩니다. 오프사이트 백업 시스템에 백업 데이터의 두 번째 복사본을 갖고 싶지만 DRBD와 Ceph가 실행되는 "레이어"에 대해 약간 혼란스럽습니다. 오프사이트 백업 시스템에서 RBD 풀을 생성하고 여기에 직접 DRBD를 구성할 수 있습니까? 아니면 Ceph를 사용하여 VM을 실행하고 VM에서 DRBD를 추상화 계층으로 구성해야 합니...

Admin

CEPH에서 OSD를 찾을 수 없습니다.
ceph

CEPH에서 OSD를 찾을 수 없습니다.

cephadm부트스트랩을 사용하여 ceph 클러스터를 설치했습니다. 인벤토리를 통해 디스크를 볼 수 있지만 장치 목록에는 표시되지 않습니다. 왜 그럴까요? 클러스터에 디스크를 추가하는 방법은 무엇입니까? root@RX570:~# ceph-volume inventory Device Path Size rotates available Model name /dev/sdl 7.28 TB True True USB3.0...

Admin

ceph quincy가 새 OSD ID를 생성할 수 없습니다.
ceph

ceph quincy가 새 OSD ID를 생성할 수 없습니다.

일부 노드와 몇 개의 OSD가 포함된 ceph 클러스터(quincy)를 실행하고 있습니다. ODS 삭제/제거를 시도했는데 이제 내 클러스터가 여전히 일부 오래된 메타데이터를 알고 있는 것 같습니다. 기존 OSD를 다시 추가할 수 없습니다. 장치 목록을 확인하면 내 디스크가 사용 가능한 것으로 표시됩니다. $ sudo ceph orch device ls HOST PATH TYPE DEVICE ID SIZE A...

Admin

Debian에서 Ceph에 디스크를 추가하는 방법
ceph

Debian에서 Ceph에 디스크를 추가하는 방법

디스크 2개(SSD 500G)가 있는 Ceph 노드가 있습니다. /dev/sda운영 체제용(Debian 11) Ceph OSD로 두 번째 SSD를 설치하고 싶습니다. 하지만 Ceph는 두 번째 디스크를 인식하지 못합니다. 부르다 $ sudo cephadm ceph-volume inventory 결과는 빈 목록입니다. 디스크가 인식되지 않습니다. 그러나 명령은 lsblk디스크가 존재함을 보여줍니다. $ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda ...

Admin

클러스터 상태 확인 시 Ceph 오류
ceph

클러스터 상태 확인 시 Ceph 오류

ceph -s오류 그림은 다음과 같습니다. 또한 배포 디렉터리에서 ceph-deploy admin xxNode 명령을 실행해 보았지만 결과가 이상적이지 않았습니다. 입력한 디렉터리가 배포 디렉터리인지 확실하지 않습니다. 오류 코드는 다음과 같습니다. ...

Admin

cephadm은 Cluster_network를 설정합니다.
ceph

cephadm은 Cluster_network를 설정합니다.

단일 NIC에 새 클러스터를 설정했지만 cephadm복제를 위해 추가 NIC를 추가했습니다 cluster_network. 이것이 cephadm을 구성한 작업이지만 작동하지 않습니다. $ ceph config set global cluster_network 192.168.1.0/24 구성 보기 $ ceph config get mon cluster_network 192.168.1.0/24 $ ceph config get mon public_network 10.73.3.0/24 확인하다 $ ceph os...

Admin

ceph Storage MDS에서 메타데이터 IO가 느리다고 보고함
ceph

ceph Storage MDS에서 메타데이터 IO가 느리다고 보고함

연구실에서 ceph Storage를 사용하고 있고 서버도 있어서 MON, OSD, MDS 등과 같은 모든 서비스를 단일 시스템에 설치하려고 합니다. loopdevice를 이용하여 디스크 2개를 만들었습니다. (서버에 SSD 디스크가 있어서 속도가 매우 좋습니다.) root@ceph2# losetup -a /dev/loop1: [64769]:26869770 (/root/100G-2.img) /dev/loop0: [64769]:26869769 (/root/100G-1.img) 이것이 내 ceph -s출...

Admin

3개 노드 ceph 클러스터에서 5개의 복제본이 가능합니까?
ceph

3개 노드 ceph 클러스터에서 5개의 복제본이 가능합니까?

이것이 타당합니까? 3노드 설정에서 가능합니까? 압착 규칙은 어떻게 생겼습니까? 이것이 현재 상황입니다. 이에 대한 아이디어는 여러 osd 중단을 보상하는 것입니다(예: 노드당 3개의 osd가 실패함). # rules rule replicated_rule { id 0 type replicated min_size 1 max_size 10 step take default step chooseleaf firstn 0 type host step emit } ...

Admin

합법적인 블록 장치로 전달된 원시(파일 시스템 없음) 루프백 장치를 생성하는 방법은 무엇입니까?
ceph

합법적인 블록 장치로 전달된 원시(파일 시스템 없음) 루프백 장치를 생성하는 방법은 무엇입니까?

질문 가짜 블록 장치(대용량 파일/디스크 이미지 사용)를 포맷되지 않은 합법적인 디스크로 생성하고 마운트하는 방법은 무엇입니까? 배경 이야기 설정하려고 하는데자동차그리고세팔로스포린(분산 스토리지 시스템) 내 취미 kubernetes 클러스터에 있습니다.Ceph에는 포맷되지 않은 블록 장치가 필요합니다.필요에 따라 분할되어 저장용으로 사용됩니다. 사용 가능한 여유 디스크가 없어서 다음과 같이 생각했습니다. 루프백 장치를 만들어서 사용하면 어떨까요? 내 호스트 OS 디스크에는 충분한 여유 공간이 있으므로...

Admin

테스트 환경에서 cephfs 볼륨 생성이 매우 느림
ceph

테스트 환경에서 cephfs 볼륨 생성이 매우 느림

테스트를 위해 단일 가상 머신에 Ceph를 설치했습니다(ceph 자체를 테스트하지는 않지만 실행할 도구에 대한 ceph 엔드포인트가 필요합니다). 설치는 매우 간단했지만, ceph fs volume create tank제가 만들려고 했던 cephfs 파일 시스템( )을 사용할 수 있게 되기까지 오랜 시간이 걸렸습니다(여기서 "ever"는 "지금까지 최소 20분"을 의미함). 실행 중인 ceph mds status프로그램: tank:1 {0=tank.ceph.znlhma=up:creating} 1 up...

Admin

새로 추가된 노드는 ceph 풀에서 사용할 수 없습니다.
ceph

새로 추가된 노드는 ceph 풀에서 사용할 수 없습니다.

Ceph의 완전 초보자이며 문제가 발생했습니다. 내 K8 설정에 3개의 새 노드를 추가했으며 그에 따라 사용할 수 있고 준비되었습니다 kubectl get nodes. 그러나 list를 사용할 때 ceph 풀에는 동일한 내용이 표시되지 않습니다 ceph osd tree. 내가 뭘 잘못했나요? Ansible Playbook을 사용하여 일반적으로 스토리지 구성을 담당하는 k8을 배포합니다. 또한 공간을 절약하기 위해 복제본 풀을 삭제할 수 있나요? 어떤 영향을 미칠까요? --- POOLS --- POOL...

Admin