우리는 세 가지 Linux 시스템을 다루고 있습니다.
ubuntu 18.04를 실행하는 "서버"(실제로는 데스크탑 PC 역할도 하는 워크스테이션).
아치 리눅스를 실행하는 오래된 클라이언트(샌디 브리지 CPU가 있고 전용 GPU가 없는 노트북)
데비안 테스트를 실행하고 데비안 저장소의 독점 nvidia 드라이버를 사용하는 새 클라이언트(Comet Lake CPU가 있는 노트북, 전용 Nvidia GPU, BIOS의 하이브리드 설정, Bumblebee 설치 없음)
두 클라이언트 모두 동일한 네트워크에 있습니다(스위치의 인접 포트, 동일한 IP 범위, 2개의 기가비트 이더넷 어댑터, speedtest.net은 둘 다에 대해 동일한 연결 속도를 보고합니다).
두 클라이언트 모두에서 서버로 SSH를 통해 연결할 수 있으며 X 전달은 일반적으로 작동하지만 새 클라이언트에서는 훨씬 느립니다(테스트 주기로 Intel vtune GUI를 시작하고 기본 메뉴가 완전히 그려진 후 닫았습니다. 새 클라이언트에서는 시간이 걸립니다. 클라이언트에서는 약 26초(기존 클라이언트에서는 약 5초)
ssh -vvv
두 설정 사이에는 아무런 차이가 없습니다(둘 다 비밀번호 [email protected]
로 보호되어 있으며 둘 다 연결 압축을 사용하지 않습니다). 실제로 파일 $HOME/.ssh/config
과 /etc/ssh/ssh_config
파일은 동일합니다(후자는 약간 다르게 제공되지만 이전 파일에서 파일을 전송했습니다.) 클라이언트 클라이언트에서 새 클라이언트로) 이것이 차이의 원인임을 배제합니다.
분명히 우리는 이전 클라이언트에서와 마찬가지로 새 클라이언트에서도 x 전달 속도가 빨라지기를 원합니다. 차이점을 찾을 수 있는 추천 장소는 무엇입니까? 클라이언트의 X 구성/그래픽 드라이버가 속도 저하를 일으킬 수 있습니까? 세 시스템 모두에서 일반적인 그래픽 문제는 발견되지 않았습니다.
고쳐 쓰다
두 시스템 모두 동일한 창 관리자(i3)를 실행합니다. 압축을 활성화/비활성화해도 동작은 변경되지 않습니다.
다소 예기치 않게(@symcbean의 제안에 의해 촉발되었지만) 새 클라이언트에서 네트워크 장치를 전환할 때 동작에 급격한 변화가 있음을 발견했습니다. USB-C를 통해 포함된 이더넷에 연결하면 느린 동작이 관찰되었습니다. Wi-Fi 연결을 통해 위에서 언급한 시작 및 종료 주기는 약 9초가 소요됩니다. (이전 클라이언트는 내장 이더넷 어댑터를 사용했습니다).
더 자세히 살펴보면 speedtest.net에 따르면 두 클라이언트 모두 800Mbit/s(두 클라이언트의 이더넷)를 얻는다고 하는데, scp
서버에서 클라이언트, 이전 클라이언트까지의 속도는 90MB/s이지만 새 클라이언트 이더넷의 네트워크 속도는 5MB/s에 불과합니다. s(50MB/s(Wi-Fi 사용)).
업데이트 2
클라이언트마다 설정이 다른 ip addr
것으로 나타났습니다 .qdisc
- 새로운 클라이언트 이더넷
<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
- 기존 클라이언트 이더넷
<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
- 새로운 클라이언트 Wi-Fi
<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
iperf3(공용 iperf 서버에)
기존 고객
[ ID] Interval Transfer Bitrate Retr Cwnd
[ 5] 0.00-1.00 sec 92.7 MBytes 777 Mbits/sec 0 1.54 MBytes
[ 5] 1.00-2.00 sec 73.8 MBytes 619 Mbits/sec 0 1.54 MBytes
[ 5] 2.00-3.00 sec 71.2 MBytes 598 Mbits/sec 0 1.54 MBytes
[ 5] 3.00-4.00 sec 76.2 MBytes 640 Mbits/sec 0 1.54 MBytes
[ 5] 4.00-5.00 sec 97.5 MBytes 818 Mbits/sec 2 1.14 MBytes
[ 5] 5.00-6.00 sec 95.0 MBytes 797 Mbits/sec 0 1.27 MBytes
[ 5] 6.00-7.00 sec 93.8 MBytes 786 Mbits/sec 0 1.34 MBytes
[ 5] 7.00-8.00 sec 93.8 MBytes 786 Mbits/sec 0 1.44 MBytes
[ 5] 8.00-9.00 sec 95.0 MBytes 797 Mbits/sec 0 1.48 MBytes
[ 5] 9.00-10.00 sec 86.2 MBytes 724 Mbits/sec 0 1.48 MBytes
새 클라이언트(이더넷)
[ ID] Interval Transfer Bitrate Retr Cwnd
[ 5] 0.00-1.00 sec 30.0 MBytes 252 Mbits/sec 49 382 KBytes
[ 5] 1.00-2.00 sec 35.9 MBytes 301 Mbits/sec 0 447 KBytes
[ 5] 2.00-3.00 sec 41.5 MBytes 348 Mbits/sec 0 515 KBytes
[ 5] 3.00-4.00 sec 47.6 MBytes 399 Mbits/sec 0 580 KBytes
[ 5] 4.00-5.00 sec 53.6 MBytes 450 Mbits/sec 0 648 KBytes
[ 5] 5.00-6.00 sec 58.2 MBytes 489 Mbits/sec 0 714 KBytes
[ 5] 6.00-7.00 sec 66.2 MBytes 555 Mbits/sec 0 781 KBytes
[ 5] 7.00-8.00 sec 52.5 MBytes 440 Mbits/sec 10 625 KBytes
[ 5] 8.00-9.00 sec 57.5 MBytes 482 Mbits/sec 0 690 KBytes
[ 5] 9.00-10.00 sec 61.2 MBytes 513 Mbits/sec 0 740 KBytes
답변1
저는 vtune을 사용해본 적이 없습니다/vtune이 무엇을 하는지 모릅니다 - 알고 계십니까?지각구형 장치의 반응성이 더 좋나요?
X가 더 말이 많아요. 제가 가장 먼저 살펴볼 것은 비디오 카드가 아닌 네트워크 스택입니다. iperf3 실행/충돌 알고리즘 확인/TCP 오프로딩 차이 확인(이렇게 하면 CPU 로드가 줄어들면서 대기 시간이 늘어납니다). 새 시스템에서 irqbalance가 실행되고 있는지 확인하십시오.