클러스터 멤버에서 corosync를 시작할 때 오류가 발생합니다.
May 16 00:53:32 neftis corosync[19741]: [MAIN ] Corosync Cluster Engine ('2.3.4'): started and ready to provide service.
May 16 00:53:32 neftis corosync[19741]: [MAIN ] Corosync built-in features: dbus systemd xmlconf snmp pie relro bindnow
May 16 00:53:32 neftis corosync[19741]: [MAIN ] parse error in config: No interfaces defined
May 16 00:53:32 neftis corosync[19741]: [MAIN ] Corosync Cluster Engine exiting with status 8 at main.c:1278.
May 16 00:53:32 neftis corosync: Starting Corosync Cluster Engine (corosync): [FALL�]
May 16 00:53:32 neftis systemd: corosync.service: control process exited, code=exited status=1
May 16 00:53:32 neftis systemd: Failed to start Corosync Cluster Engine.
May 16 00:53:32 neftis systemd: Unit corosync.service entered failed state.
May 16 00:53:32 neftis systemd: corosync.service failed.
May 16 00:54:06 neftis systemd: Cannot add dependency job for unit firewalld.service, ignoring: Unit firewalld.service is masked.
May 16 00:54:06 neftis systemd: Starting Corosync Cluster Engine...
May 16 00:54:06 neftis corosync[19773]: [MAIN ] Corosync Cluster Engine ('2.3.4'): started and ready to provide service.
May 16 00:54:06 neftis corosync[19773]: [MAIN ] Corosync built-in features: dbus systemd xmlconf snmp pie relro bindnow
May 16 00:54:06 neftis corosync[19773]: [MAIN ] parse error in config: No interfaces defined
May 16 00:54:06 neftis corosync[19773]: [MAIN ] Corosync Cluster Engine exiting with status 8 at main.c:1278.
May 16 00:54:06 neftis corosync: Starting Corosync Cluster Engine (corosync): [FALL�]
May 16 00:54:06 neftis systemd: corosync.service: control process exited, code=exited status=1
May 16 00:54:06 neftis systemd: Failed to start Corosync Cluster Engine.
May 16 00:54:06 neftis systemd: Unit corosync.service entered failed state.
이것은 세 개의 노드에 대한 내 구성이지만 최근에 추가한 netfis에서만 실패합니다.
totem {
version: 2
secauth: off
cluster_name: cluster-osiris
transport: udpu
}
nodelist {
node {
ring0_addr: isis.localdoamin
nodeid: 1
}
node {
ring0_addr: horus.localdoamin
nodeid: 2
}
node {
ring0_addr: netfis.localdoamin
nodeid: 3
}
}
quorum {
provider: corosync_votequorum
}
logging {
to_syslog: yes
}
저는 CentOS 7.1 64비트에서 Pacemaker, corosync, PC 클러스터를 실행하고 있습니다.
인터넷에서 검색했지만 무슨 일이 일어나고 있는지 알 수 없습니다.
도와주세요?
답변1
Corosync 구성에 나열한 호스트 이름이 올바르게 확인됩니까? 이것을 먼저 확인하고 싶습니다.
# host isis.localdoamin
"도메인"의 철자가 틀린 것 같으니(또는 내가 모르는 언어로 되어 있는 것 같으니) 명령이 실패할 것 같은데요? ;-)
또는 짧은 호스트 이름(".localdomain" 제외)이나 Corosync가 바인딩할 인터페이스의 IP 주소를 사용할 수 있습니다.
답변2
이 오류 메시지는 proxmox가 다음과 같이 내 컨테이너 호스트 이름의 루프백 IP에 레코드를 추가하기 때문에 발생합니다 /etc/hosts
.
# --- BEGIN PVE ---
127.0.1.1 pgmaster
# --- END PVE ---
나 역시 hosts
이 이름에 대한 기록을 갖고 있다. 루프백 기록을 주석 처리하면 됩니다.