두 개의 노드(복제됨), 즉 server1과 server2로 분할된 "gvol0" 볼륨이 있습니다.
청소 후 볼륨 정보는 다음과 같습니다.
Volume Name: gvol0
Type: Replicate
Volume ID: 434237432743274327473247
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1:/var/lib/gvol0/brick1
Brick2: server2:/var/lib/gvol0/brick2
Options Reconfigured:
nfs.rpc-auth-allow: x.x.x.*
nfs.export-volumes: on
nfs.addr-namelookup: off
auth.allow: x.x.x.*
transport.address-family: inet
performance.readdir-ahead: on
nfs.disable: off
그런 다음 각 블록은 서버의 다음 마운트 지점 위치에 설치됩니다: /mnt/gluster/gvol0/
우리가 직면한 문제는 다음과 같습니다.
server1에는 마운트 지점에 특정 폴더가 있습니다. 이를 "_data"라고 부르겠습니다. 여기에는 하위 폴더나 그 안에 있는 파일이 표시되지 않습니다. 그러나 이러한 파일/폴더 수를 계산하고 파일을 편집하여 디스크에 성공적으로 쓸 수도 있습니다.
File: ‘_data’
Size: 4096 Blocks: 8 IO Block: 131072 directory
Device: 27h/39d Inode: 10981725783047031592 Links: 35
Access: (2775/drwxrwsr-x) Uid: ( 48/ apache) Gid: (
1024/teamgroup)
Context: system_u:object_r:fusefs_t:s0
Access: 2017-06-13 15:42:18.653306032 +0000
Modify: 2017-06-13 15:42:22.461305492 +0000
Change: 2017-06-13 15:42:22.461305492 +0000
Birth: -
이상하게도 이 문제는 server2의 마운트 지점에는 존재하지 않으며 /var/lib/gvol0/brick1/_data/의 브릭 자체에 있는 _data 내의 폴더와 파일을 성공적으로 나열할 수 있습니다.
자동 복구 데몬을 포함하여 모든 볼륨이 실행 중입니다.
Status of volume: gvol0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick server1:/var/lib/gvol0/brick1 49156 0 Y 997
Brick server2:/var/lib/gvol0/brick2 49154 0 Y 1109
NFS Server on localhost 2049 0 Y 17085
Self-heal Daemon on localhost N/A N/A Y 17093
NFS Server on server 1 2049 0 Y 4971
Self-heal Daemon on server 2 N/A N/A Y 4979
Task Status of Volume gvol0
자가 치유 명령을 실행하면 문제가 발생하지 않습니다.
Brick server1:/var/lib/gvol0/brick1
Status: Connected
Number of entries: 0
Brick server2:/var/lib/gvol0/brick2
Status: Connected
Number of entries: 0
전에 이런 경험을 한 사람이 있나요? 다른 정보를 알려주실 수 있나요? /var/log/glusterfs/... 내부의 로그 파일에 명확한 내용이 표시되지 않습니다.
감사해요!