Docker 컨테이너 내부의 루프백 네트워크가 호스트 네트워크 루프백을 공유합니까?

Docker 컨테이너 내부의 루프백 네트워크가 호스트 네트워크 루프백을 공유합니까?

최근 컨테이너 내부에서 실행되는 클라이언트 애플리케이션에 문제가 발생했습니다. 클라이언트는 루프백 IP 127.0.0.1을 통해 동일한 컨테이너에 있는 서버에 대한 네트워크 연결을 설정합니다. 여기서 문제는 특정 작업 중에 애플리케이션이 포트가 부족하다고 불평하지만 로그를 확인하면 주어진 시간에 소켓 핸들이 컨테이너의 동적 포트 범위보다 작다는 것을 알 수 있다는 것입니다.

로컬 호스트의 IP를 컨테이너의 특정 IP로 수동으로 변경하면 /etc/hosts제대로 작동하기 시작했습니다. 호스트의 루프백 인터페이스와 컨테이너의 루프백 인터페이스가 연결되어 있는지 알려주실 수 있는 분 계시나요? 나는 컨테이너의 네트워크 네임스페이스가 호스트의 네트워크 네임스페이스와 다를 것이라고 생각합니다. 루프백 인터페이스와 함께 작동합니까? 인터페이스 세부정보는 다음을 참조하세요.

컨테이너 네트워크 모드가 기본값이고 드라이버는 브리지입니다.

호스트 lo: ip addr show dev lo 1: lo: mtu 65536 qdisc noqueue status 알 수 없는 링크/루프백 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/ 8 범위 호스트 lo valid_lft 항상 Preferred_lft 항상

컨테이너 lo: ip addr show dev lo 1: lo: mtu 65536 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 범위 호스트 lo valid_lft 항상 Preferred_lft 항상 inet6::1/128 범위 호스트 valid_lft 항상 Preferred_lft 항상

관련 정보