RHEL 7.9의 인피니밴드에 대한 집중 강좌를 진행 중입니다. 내 서버에는 모두 HDR ConnectX-6 카드가 설치되어 있습니다. 이것은 각 서버가 Q8700 mlnx에 연결된 간단한 LAN의 내 연구실에 있습니다.변화우선, infiniband의 기본 네트워킹 기능만 필요하므로 서버 간에 기본 nfs 마운트를 생성 할 수 있습니다 ssh
.scp
c1
이름이 5개인 서버가 있습니다 .c5
- 각각은 RHEL 7.9 x86-64를 실행합니다.
mlnxofedinstall
처음부터 끝까지 해냈MLNX_OFED_LINUX-5.2-1.0.4.0-rhel7.9-x86_64.iso
어요systemctl enable openibd
각각을 수행한 다음 재부팅했습니다 .- 그 후에는 수동으로 수행했지만
/etc/init.d/opensmd start
이후에만c1
- RHEL 7에서 NetworkManager GUI를 사용하여
ib0
인터페이스를 다음과 같이 구성했습니다.- c1..c5는 각각 192.168.2.1 ~ 192.168.2.5입니다.
- 지정되지 않은 각 게이트웨이의 서브넷 마스크는 255.255.255.0입니다.
- 이렇게 하면
ip ib0
보고된 링크 속도는 100000입니다.
- 이게 전부인가요? 아니면 다른 내용이 많이 누락된 걸까요?
- 내 1gbps 구리 네트워크 에서는
scp
항상 112MB/초가 표시됩니다. 내 계산은 1000mbps / 8 = 125MBps이며 이는 89.6%의 효율성을 제공하며 이는 112MBps입니다. HDR 인피니밴드 데이터그램 IPoIB가 100000mb/s, 즉 100배 더 빠르다고 가정하면 11200MB/s가 표시되어야 합니까?- 위에서 언급한 작업만 수행했는데 현재 속도는 262MB/초(30GB tar 파일을 scp로 지정)입니다. 만약 있다면 얼마나 더 좋아져야 할까요?
답변1
ib_ipoib 모듈이 로드되었는지 확인하세요.
lsmod | grep ipoib
ib_ipoib 124872 0
ib_cm 53085 2 rdma_cm,ib_ipoib
ib_core 357959 8 rdma_cm,ib_cm,iw_cm,mlx5_ib,ib_umad,ib_uverbs,rdma_ucm,ib_ipoib
mlx_compat 55063 13 qedr,rdma_cm,ib_cm,iw_cm,auxiliary,mlx4_ib,mlx5_ib,ib_core,ib_umad,ib_uverbs,mlx5_core,rdma_ucm,ib_ipoib
그렇지 않은 경우 다음을 통해 로드할 수 있습니다.
modprobe ib_ipoib
답변2
아니요, 병목 현상이 CPU에 있기 때문에 이 테스트에서는 사용 가능한 대역폭을 사용하지 않습니다.
SSH와 scp는 여러 vCPU를 사용할 수 없습니다.
답변3
scp는 훌륭하지만 CPU를 너무 많이 사용합니다! 간단한 FTP를 설정하고 동일한 테스트를 실행해 보십시오. 속도가 크게 향상되는 것을 볼 수 있습니다. 클라이언트나 호스트 시스템에 다른 I/O 병목 현상이 없는 한.
일반적으로 오픈 소스 타사 드라이버보다는 비공개 소스인 경우에도 공급업체의 공식 드라이버를 사용하는 것이 좋습니다. 이는 시스템 성능에 큰 영향을 미칠 수 있습니다.
그러나 PCI 버스의 속도는 여전히 제한되어 있습니다. PCI-X에는 몇 가지 다른 기능과 제한 사항이 있습니다. 설명서를 읽고 시스템과 네트워크 어댑터가 올바르게 구성되었는지 확인하세요!
모든 일을 올바르게 수행하고 시스템 구성을 현명하게 계획하면 Infiniband가 번개처럼 하늘로 솟아오를 것입니다!