Linux: clnt_create: RPC: 프로그램이 등록되지 않았습니다.

Linux: clnt_create: RPC: 프로그램이 등록되지 않았습니다.

NFS 마운트가 최근 자동으로 마운트 해제되었습니다. 확인해 보니 NFS 서비스 상태가 실행 중으로 표시되었습니다.

[root@hsluasrepo]# service nfs status
rpc.svcgssd is stopped
rpc.mountd (pid 4083) is running...
nfsd (pid 4148 4147 4146 4145 4144 4143 4142 4141) is running...
rpc.rquotad (pid 4079) is running...

[root@hsluasrepo]# service rpcbind status
rpcbind (pid  4203) is running...

[root@hsluasrepo common]# rpcinfo -p 10.80.3.154
   program vers proto   port  service
    100000    4   tcp    111  portmapper
    100000    3   tcp    111  portmapper
    100000    2   tcp    111  portmapper
    100000    4   udp    111  portmapper
    100000    3   udp    111  portmapper
    100000    2   udp    111  portmapper

그러나 showmount출력에는 오류가 표시됩니다.

[root@hsluasrepo ]# showmount -e 10.80.3.154
clnt_create: RPC: Program not registered

NFS 서비스를 다시 시작하면 showmount출력에 내보낸 NFS 서버 목록이 표시됩니다.

이 문제의 근본 원인과 향후 이를 방지하는 방법을 알려줄 수 있는 사람이 있습니까?

/var/log/messages:

Jul 7 03:22:01 hsluasrepo rsyslogd: [origin software="rsyslogd" swVersion="5.8.10" x-pid="1188" x-info="rsyslog.com"] rsyslogd was HUPed
Jul 7 03:22:02 hsluasrepo rhsmd: In order for Subscription Manager to provide your system with updates, your system must be registered with RHN. Please enter your Red Hat login to ensure your system is up-to-date.
Jul 8 03:22:01 hsluasrepo rhsmd: In order for Subscription Manager to provide your system with updates, your system must be registered with RHN. Please enter your Red Hat login to ensure your system is up-to-date.
Jul 8 16:36:55 hsluasrepo kernel: nfsd: last server has exited, flushing export cache
Jul 8 16:36:55 hsluasrepo rpc.mountd[4083]: Caught signal 15, un-registering and exiting.
Jul 8 16:36:55 hsluasrepo rpc.mountd[24463]: Version 1.2.3 starting
Jul 8 16:36:55 hsluasrepo kernel: NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
Jul 8 16:36:55 hsluasrepo kernel: NFSD: starting 90-second grace period
Jul 8 16:37:32 hsluasrepo rpc.mountd[24463]: authenticated mount request from 10.60.5.208:1004 for /common/PROD (/common/PROD)
Jul 8 16:38:09 hsluasrepo rpc.mountd[24463]: authenticated mount request from 10.60.5.181:869 for /common/PROD (/common/PROD) 
Jul 8 16:38:43 hsluasrepo rpc.mountd[24463]: authenticated mount request from 10.60.5.180:825 for /common/PROD (/common/PROD)
Jul 8 16:39:12 hsluasrepo rpc.mountd[24463]: authenticated mount request from 10.60.5.176:688 for /common/PROD (/common/PROD)

답변1

당신은:

[email protected]]$ service nfs status
rpc.svcgssd is stopped
rpc.mountd is stopped
nfsd is stopped
rpc.rquotad is stopped

[email protected]]$ service nfs start
Starting NFS services:                                     [  OK  ]
Starting NFS quotas:                                       [  OK  ]
Starting NFS daemon:                                       [  OK  ]
Starting NFS mountd:                                       [  OK  ]

[email protected]]$ chkconfig nfs on

답변2

RHEL6에서 이 문제가 발생했습니다. 이상했지만 service rpcbind restartnfs 서비스 이전에 실행하면 오류가 사라졌습니다. 나는 이 기사를 따랐다:RHEL6에서 NFS 서버의 단계별 구성

이것은 나에게 효과적이었지만 여전히 그 이유를 알고 싶습니다. 누구든지 이것을 설명할 수 있나요?

답변3

저는 이 문제를 발견하고 10단계로 구성된 간단한 nfs 서버 및 클라이언트 구성 방법을 사용하여 문제를 해결했습니다.

  1. nfs-utils를 설치하고 설치되어 있는지 확인합니다( yum install -y nfs-utils / rpm -qa | grep nfs-utils).
  2. vi /etc/sysconfig/nfs(다음 포트 번호를 주석 해제하고 변경합니다. STATD_PORT=, MOUNTD_PORT=, LOCKD_UDPPORT=, LOCKED_TCPPORT= {4000-4004 또는 원하는 포트를 사용할 수 있습니다.}
  3. system-config-firewall-tui{위의 2에 지정된 포트 번호와 111(rpc) 및 2049(nfs)를 엽니다.}
  4. iptables save
  5. vi /etc/export(공유할 디렉터리, 공유 위치, 옵션 등을 제공하세요./share *(ro,async)
  6. exportfs -rv
  7. service nfs start
  8. ssh root@clientserver. 예를 들어.ssh [email protected]
  9. showmount -e {master ip}예를 들어.showmount -e 192.168.2.31
  10. mount -t nfs {master ip}:/{shared dir from master} /{mount point}..예를 들어.mount -t nfs 192.168.2.31:/share /mnt

마지막으로 하나 만들어 보세요 df -h.

이것은 단지 나의 작은 기여입니다. 필요한 모든 조치를 취하지 않았을 수도 있지만 도움이 될 수 있습니다.

답변4

최근 가상 머신의 RHEL에서 NFS를 구성했는데 showmount -e localhost 명령을 설정할 때 동일한 문제가 발생했습니다. 서비스를 몇 번 다시 시작하려고 시도한 후 VM을 종료했다가 다시 시작했더니 문제가 해결되었습니다.

인사! !

관련 정보