3개 노드 ceph 클러스터에서 5개의 복제본이 가능합니까?

3개 노드 ceph 클러스터에서 5개의 복제본이 가능합니까?

이것이 타당합니까? 3노드 설정에서 가능합니까? 압착 규칙은 어떻게 생겼습니까? 이것이 현재 상황입니다. 이에 대한 아이디어는 여러 osd 중단을 보상하는 것입니다(예: 노드당 3개의 osd가 실패함).

# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}

답변1

예, 가능합니다 step chooseleaf firstn 0 type osd. 이것이 또 다른 문제라면, 예를 들어 스토리지 오버헤드가 매우 높을 것입니다. 능력이 있으면 이를 수행할 수 있지만 ceph는 확장성이 뛰어난 솔루션으로 설계되었으며 이 설정에서는 극단적인 경우에 직면하게 됩니다. 일반적으로 호스트 기반 복제는 min_size = 2두 가지 모두 에 충분합니다 size = 3. 이렇게 하면 한 호스트에서 몇 개의 OSD가 실패하는지는 중요하지 않습니다. 두 번째 호스트가 실패하더라도 데이터는 손실되지 않고 OSD를 다시 온라인으로 전환할 때까지 성능이 저하됩니다. 그러나 호스트가 3개만 있으면 장애가 발생한 노드를 복구할 수 없으므로 노드가 복구되거나 새 노드가 클러스터에 합류할 때까지 클러스터는 저하된 상태로 실행됩니다.

당신은 편집할 수 있습니다압착 규칙(또는 테스트하기 위해 먼저 새 호스트를 생성) 먼저 사용 가능한 모든 호스트를 선택한 다음 OSD 수를 선택하면 다음과 같습니다.

step choose firstn 0 type host
step chooseleaf firstn 2 type osd

신청하기 전에 테스트해야 합니다 crushtool.

관련 정보