Glusterfs, Gluster 볼륨 상태 명령은 TCP 포트 해당 없음 상태를 표시합니다.

Glusterfs, Gluster 볼륨 상태 명령은 TCP 포트 해당 없음 상태를 표시합니다.

애플리케이션 데이터를 저장하기 위해 세 개의 볼륨을 생성한 glusterfs 기반 네트워크 스토리지를 제안했습니다. glustervolume start <name_volume>force 명령을 실행한 후 볼륨 상태를 확인해보니 tcp 포트가 "n/a" 상태인 것을 발견했습니다.

 gluster volume status
Status of volume: logz
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick 10.130.0.9:/log_data/brick2           N/A       N/A        N       N/A

Task Status of Volume logz
------------------------------------------------------------------------------
There are no active volume tasks

Status of volume: nextcloud
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick 10.130.0.9:/nex_data/brick1           N/A       N/A        N       N/A

Task Status of Volume nextcloud
------------------------------------------------------------------------------
There are no active volume tasks

Status of volume: prometheus
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick 10.130.0.9:/promet_data/brick3        N/A       N/A        N       N/A

Task Status of Volume prometheus
------------------------------------------------------------------------------
There are no active volume tasks
gluster volume info

Volume Name: logz
Type: Distribute
Volume ID: 7340977f-bae8-4c9a-9d5e-3a462b0eea34
Status: Started
Snapshot Count: 0
Number of Bricks: 1
Transport-type: tcp
Bricks:
Brick1: 10.130.0.9:/log_data/brick2
Options Reconfigured:
nfs.disable: on
storage.fips-mode-rchecksum: on
transport.address-family: inet

Volume Name: nextcloud
Type: Distribute
Volume ID: 7cfd5606-08b6-4326-ba6a-0dba595b3ae0
Status: Started
Snapshot Count: 0
Number of Bricks: 1
Transport-type: tcp
Bricks:
Brick1: 10.130.0.9:/nex_data/brick1
Options Reconfigured:
nfs.disable: on
storage.fips-mode-rchecksum: on
transport.address-family: inet

Volume Name: prometheus
Type: Distribute
Volume ID: fd2e819c-111a-4368-806f-1395cc48956e
Status: Started
Snapshot Count: 0
Number of Bricks: 1
Transport-type: tcp
Bricks:
Brick1: 10.130.0.9:/promet_data/brick3
Options Reconfigured:
nfs.disable: on
storage.fips-mode-rchecksum: on
transport.address-family: inet
ss -tunlp
Netid     State      Recv-Q     Send-Q           Local Address:Port          Peer Address:Port     Process
udp       UNCONN     0          0                127.0.0.53%lo:53                 0.0.0.0:*         users:(("systemd-resolve",pid=483,fd=12))
udp       UNCONN     0          0              10.130.0.9%eth0:68                 0.0.0.0:*         users:(("systemd-network",pid=481,fd=19))
udp       UNCONN     0          0                      0.0.0.0:111                0.0.0.0:*         users:(("rpcbind",pid=455,fd=5),("systemd",pid=1,fd=78))
udp       UNCONN     0          0                         [::]:111                   [::]:*         users:(("rpcbind",pid=455,fd=7),("systemd",pid=1,fd=80))
tcp       LISTEN     0          1024                   0.0.0.0:24007              0.0.0.0:*         users:(("glusterd",pid=8081,fd=10))
tcp       LISTEN     0          4096                   0.0.0.0:111                0.0.0.0:*         users:(("rpcbind",pid=455,fd=4),("systemd",pid=1,fd=77))
tcp       LISTEN     0          4096             127.0.0.53%lo:53                 0.0.0.0:*         users:(("systemd-resolve",pid=483,fd=13))
tcp       LISTEN     0          128                    0.0.0.0:22                 0.0.0.0:*         users:(("sshd",pid=564,fd=3))
tcp       LISTEN     0          128                  127.0.0.1:6010               0.0.0.0:*         users:(("sshd",pid=737,fd=11))
tcp       LISTEN     0          4096                      [::]:111                   [::]:*         users:(("rpcbind",pid=455,fd=6),("systemd",pid=1,fd=79))
tcp       LISTEN     0          128                       [::]:22                    [::]:*         users:(("sshd",pid=564,fd=4))
tcp       LISTEN     0          128                      [::1]:6010                  [::]:*         users:(("sshd",pid=737,fd=10))

그들은 이 문제가 해결될 수 있다고 github에 썼습니다. "해결책: glusterd는runner_run()에 의해 설정된 errno를 확인해야 하며 EADDRINUSE로 설정된 경우 브릭에 새 포트를 할당하고 다시 시작해야 합니다." 그러나 어떤 파일에서 수정이 필요한지는 나타내지 않습니다. 만들어 질. 내가 생성한 모든 볼륨이 다른 포트에서 부팅될 수 있도록 이 문제를 해결하는 방법을 알려주실 수 있나요? glusterfs-server를 제거하고 다시 설치하려고 시도한 후 포트 49152에서 작동하는 첫 번째 볼륨도 사용할 수 없게 되었습니다.

답변1

glusterd.vol 파일의 max-port 옵션 행을 주석 처리하고 서비스를 다시 시작한 후 볼륨을 다시 생성하여 각 볼륨이 별도의 tcp 포트에서 시작되도록 합니다.

관련 정보