drbd

분산 스토리지의 복제 성능 이해
drbd

분산 스토리지의 복제 성능 이해

분산 스토리지 솔루션(저의 경우 Linstor/DRBD)에서 복제를 사용할 때 성능을 이해하는 데 어려움을 겪고 있습니다. 각각 10개의 NVMe가 있는 3개의 스토리지 노드가 있습니다. 각 NVMe의 쓰기 성능은 200,000 IOPS이므로 스토리지 노드 하나의 총 IOPS는 2M입니다. 복제 1x를 사용할 때 총 쓰기 성능은 예상대로 각 스토리지 노드에서 약 1M8입니다. 하지만 복제 3x를 사용하면 각 노드의 쓰기 성능이 800k에 멈춰 물리적 NVMe 가속이 충분하지 않다는 것을 의미합니다. ...

Admin

Hot Standby 아키텍처를 위한 데이터 복제 방식
drbd

Hot Standby 아키텍처를 위한 데이터 복제 방식

저는 스토리지 및 파일 시스템 세계에 비교적 익숙하지 않으며(올바른 언어를 사용하지 않는 경우 양해해 주시기 바랍니다) 현재 상시 대기 구성(예: 파일을 사용할 수 있는 설정)을 구현하는 방법을 연구 중입니다. 두 개의 서로 다른 머신을 동시에 사용하여 장애 조치 시 대기 호스트가 인계받을 수 있도록 합니다(이 질문은 데이터 복제에 관한 것입니다.아니요장애 조치 오케스트레이션). 그러나 다양한 접근 방식의 장단점에 대해 약간 혼란스럽습니다. 지금까지 내가 수행한 연구에 따르면 두 가지 다른 접근 방식...

Admin

Pacemaker에서 특정 노드의 업그레이드 방지
drbd

Pacemaker에서 특정 노드의 업그레이드 방지

세 개의 노드가 있는 drbd +pacemaker 클러스터가 있는데 그 중 하나는 쿼럼 장치 전용입니다. 업그레이드 가능한 drbd-resource가 세 장치 모두에서 실행되어야 하지만 중재 장치에서는 절대 업그레이드되지 않도록 맥박 조정기 리소스를 구성하려고 합니다. 리소스에 위치 제한을 설정하려고 시도했지만 이로 인해 Pacemaker가 쿼럼 장치에서 리소스를 전혀 시작할 수 없게 되어 drbd가 장애 조치 시 쿼럼을 유지할 수 없게 되었습니다. 원하는 상태는 다음과 같습니다. drbd 리소스가...

Admin

Ceph 위에 있는 DRBD
drbd

Ceph 위에 있는 DRBD

Ceph 풀에서 DRBD를 직접 실행할 수 있습니까? 파일이 디스크에 직접 저장되는 백업 시스템이 있습니다. Ceph는 오프사이트 백업 시스템의 모든 디스크에 설치 및 구성됩니다. 오프사이트 백업 시스템에 백업 데이터의 두 번째 복사본을 갖고 싶지만 DRBD와 Ceph가 실행되는 "레이어"에 대해 약간 혼란스럽습니다. 오프사이트 백업 시스템에서 RBD 풀을 생성하고 여기에 직접 DRBD를 구성할 수 있습니까? 아니면 Ceph를 사용하여 VM을 실행하고 VM에서 DRBD를 추상화 계층으로 구성해야 합니...

Admin

DRBD 서비스 및 drbdadm
drbd

DRBD 서비스 및 drbdadm

DRBD v9.17(커널 v9.1.4) drbd서비스로 실행할 때와 도구를 수동으로 사용할 때의 일반적인 역할을 이해하려고 노력 중입니다 drbdadm. 이는 온라인에서 본 일부 연습보다 더 새로운 것 같습니다. 이 서비스와 도구는 언제 사용해야 하며 drbdadm장애 조치 제어 pacemaker와 관련하여 어디에 적합합니까 ?drbd 리소스를 수동으로 생성 drbdadm하고 시작했는데 이제 UPToDatestatus 명령을 사용하여 두 노드 모두에 표시됩니다. 장애 조치를 위해 맥박 조정기에서 해당...

Admin

이전에는 호스트가 제대로 작동했는데도 호스트에 갑자기 핑을 보낼 수 없으며 그 반대의 경우도 마찬가지입니다.
drbd

이전에는 호스트가 제대로 작동했는데도 호스트에 갑자기 핑을 보낼 수 없으며 그 반대의 경우도 마찬가지입니다.

이전에는 작동했지만 특정 호스트에서 $B특정 호스트 로 핑을 보낼 수는 없습니다 .$A [A] ping $B--> 대상 호스트에 액세스할 수 없습니다. [B] ping $A유효합니다. [C]는 ping $B유효합니다. [1] traceroute $B결과: 1. $B 3005.339 ms !H 3005.277 ms !H 3005.250 ms !H 호스트 $B에는 2개의 이더넷 인터페이스( eth0기본적으로 eth1- for drbd, DEFROUTE=nofor eth1)가 있으며 마스터 노...

Admin

페이스메이커 + Corosync + DRBD + Samba + NFS
drbd

페이스메이커 + Corosync + DRBD + Samba + NFS

여러분, 안녕하세요, 공유 리소스 ClusterIP, ClusterSamba, ClusterNFS, DRBD(복제 리소스) 및 DRBDFS를 사용하여 2개의 PC 클러스터를 설정하려고 합니다. 프로젝트는 에서 시작되었습니다.클러스터를 처음부터 시작하기. 이 가이드의 모든 내용이 완료되면 문제 없이 작동할 것입니다. 따라서 이 가이드의 일부 청크를 사용하여 내 프로젝트에서 노드에 자동으로 할당되는 공유 IP(ClusterIP)를 설정하고 해당 노드(시작 위치: /)에 내 /dev/drbd1 장치를 /...

Admin

DRBD: 장애 조치 또는 노드 재시작 시 "장치 [/dev/drbd0]를 /mydata로 마운트할 수 없습니다."
drbd

DRBD: 장애 조치 또는 노드 재시작 시 "장치 [/dev/drbd0]를 /mydata로 마운트할 수 없습니다."

각각 CentOS 7 서버가 있는 두 개의 ESXi 호스트를 사용하여 클러스터형 시스템을 만들고 있습니다. 파일 시스템을 생성하고 node1. 대기 또는 재부팅을 수행하면 장애 조치가 node01제대로 작동합니다 node02. 그러나 node02연속적으로 실행 하면 node01파일 시스템을 마운트할 수 없다는 리소스 오류가 반환됩니다./mbdata 나는 다음 메시지를 받았습니다: Failed Resource Actions: * mb-drbdFS_start_0 on node01 'unknown ...

Admin

PC를 사용한 장애 조치로 인해 원본 서버에서 DRBD 디스크를 사용할 수 없게 됩니다. "해당 리소스 없음"
drbd

PC를 사용한 장애 조치로 인해 원본 서버에서 DRBD 디스크를 사용할 수 없게 됩니다. "해당 리소스 없음"

저는 DRBD, PCS를 사용하여 2노드 클러스터를 실행하고 있습니다. virtual_IP 및 DRBD를 구성하면 디스크가 첫 번째 노드에서 제대로 작동합니다. 그런 다음 기본 노드에서 "pcs 클러스터 중지"를 사용하여 장애 조치를 테스트했고 디스크와 가상 IP가 두 번째 노드로 올바르게 마이그레이션되었습니다. 그러나 첫 번째 노드에서는 디스크를 사용할 수 없게 됩니다. drbdadm status Error: cluster is not currently running on this node op...

Admin

Pacemaker 클러스터 서비스가 정상적으로 시작될 수 없으며 파일 시스템을 탑재할 수 없습니다.
drbd

Pacemaker 클러스터 서비스가 정상적으로 시작될 수 없으며 파일 시스템을 탑재할 수 없습니다.

DRBD 및 Pacemaker가 포함된 RHEL 7.5에 3노드 MySQL 클러스터가 있습니다. 클러스터를 시작한 후 다음 오류가 발생합니다. 어떻게 해야 이 문제를 극복할 수 있나요? [root@db1 ~]# pcs status Cluster name: mysql_cluster Stack: corosync Current DC: db2 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum Last updated: Sun May 19 01:41:05...

Admin

재부팅 후 DRBD가 Connected Diskless/Diskless와 함께 나타납니다.
drbd

재부팅 후 DRBD가 Connected Diskless/Diskless와 함께 나타납니다.

정전 후 큰 문제 발생, 매번 재부팅데이터베이스RB제안하다디스크 없는/디스크 없는 연결상태. 주요 문제: dump-md 응답: "더러운" 메타데이터가 발견되었습니다. apply-al 명령은 open(/dev/nvme0n1p1) failed: Device or Resource is busy 메시지와 함께 종료 코드 20으로 종료됩니다. drbd 리소스 구성은 단독으로 열 수 없습니다. 환경에 관하여: 이 drbd 리소스는 일반적으로 lvm의 블록 스토리지로 사용되며 ...

Admin

crm-fence-peer 스크립트를 사용한 분할 브레인 복구
drbd

crm-fence-peer 스크립트를 사용한 분할 브레인 복구

및 스크립트를 사용하여 두 노드에 crm-fence-peer.9.shDRBD 리소스 수준 보호를 구현했습니다 .crm-unfence-peer.9.sh 이제 랩 노드에서 다음과 같은 동작이 발생합니다. 두 노드 모두 온라인 상태 otrs1입니다 .otrs2 리소스가 실행 중입니다.otrs1 drbdadm status otrs1주요 역할을 하는 것과 otrs2작은 역할을 하는 것에 따라 이제 재부팅하면 다음 메시지가 나타납니다 otrs1.otrs2 리소스가 다음으로 이동된 것을 확인...

Admin

편집하다
drbd

편집하다

CentOS 7 커널 버전 3.10.0-957.el7.x86_64 drbd 9.0.16-1 리소스를 구성합니다. drbd 서비스가 부팅 시 시작되도록 활성화되어 있지 않습니다. 두 노드를 모두 다시 시작했습니다. 내가 실행 systemctl start drbd하고 얻은 첫 번째 노드 "DRBD의 시작 스크립트는 피어가 나타날 때까지 기다립니다. 이제 실행하면 systemctl start drbd다음을 얻습니다. drbd 데이터: debugfs dentry를 생성할 수 없습니다. 편집하다 drb...

Admin

DRBD 9 내부 메타데이터 및 makef
drbd

DRBD 9 내부 메타데이터 및 makef

다음은 2노드 DRBD 9 설정을 생성하기 위해 수행한 단계입니다. LVM 생성 각 노드에 내부 메타데이터 생성drbdadm create-md 'resourcename' 각 노드에서 리소스 호출drbdadm up 'resourcename' 그 중 하나를 drbdadm primary --force 'resourcename'마스터 노드로 프롬프트합니다. 다시 보조로 만드세요drbdadm secondary 'resourcename' 포맷됨makefs.ext4 /dev/drbd1 내 질문은 6단계에서...

Admin

DRBD 노드의 기본 역할은 무엇입니까
drbd

DRBD 노드의 기본 역할은 무엇입니까

다음과 같이 2노드 DRBD 클러스터에서 한 노드를 업그레이드했습니다. 데비안 재설치 apt-get install drbd-utils systemctl start drbd /etc/drbd.d/my_resource.res백업에서 가져오기 diskDRBD 리소스에 대한 블록 장치( ) 및 IP 주소 구성 systemctl reload drbd 이 시점에서 DRBD는 재동기화를 시작하고 클러스터는 다시 작동하게 됩니다. 제 질문은 현재 노드가 DRBD 기본 노드 또는 보조 노드로 작동하는지 여부...

Admin