
이것이 타당합니까? 3노드 설정에서 가능합니까? 압착 규칙은 어떻게 생겼습니까? 이것이 현재 상황입니다. 이에 대한 아이디어는 여러 osd 중단을 보상하는 것입니다(예: 노드당 3개의 osd가 실패함).
# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}
답변1
예, 가능합니다 step chooseleaf firstn 0 type osd
. 이것이 또 다른 문제라면, 예를 들어 스토리지 오버헤드가 매우 높을 것입니다. 능력이 있으면 이를 수행할 수 있지만 ceph는 확장성이 뛰어난 솔루션으로 설계되었으며 이 설정에서는 극단적인 경우에 직면하게 됩니다. 일반적으로 호스트 기반 복제는 min_size = 2
두 가지 모두 에 충분합니다 size = 3
. 이렇게 하면 한 호스트에서 몇 개의 OSD가 실패하는지는 중요하지 않습니다. 두 번째 호스트가 실패하더라도 데이터는 손실되지 않고 OSD를 다시 온라인으로 전환할 때까지 성능이 저하됩니다. 그러나 호스트가 3개만 있으면 장애가 발생한 노드를 복구할 수 없으므로 노드가 복구되거나 새 노드가 클러스터에 합류할 때까지 클러스터는 저하된 상태로 실행됩니다.
당신은 편집할 수 있습니다압착 규칙(또는 테스트하기 위해 먼저 새 호스트를 생성) 먼저 사용 가능한 모든 호스트를 선택한 다음 OSD 수를 선택하면 다음과 같습니다.
step choose firstn 0 type host
step chooseleaf firstn 2 type osd
신청하기 전에 테스트해야 합니다 crushtool
.