WSL2: 새 커널 설치 문제

WSL2: 새 커널 설치 문제

먼저 다음과 같이 말하겠습니다. 저는 Linux 환경에 대한 경험이 많지 않습니다.

Ubuntu를 실행하는 WSL2에 ROCm을 설치하려고 합니다. 이 과정에서는 PyTorch를 사용할 예정이며 계산에는 GPU를 사용하고 싶습니다. ROCm은 잘 설치되지만 계속 오류가 발생합니다 ROCk module is NOT loaded, possibly no GPU devices.

내가 찾은이것게시물에는 WSL에서 모듈 설치를 허용하지 않는 것이 문제일 수 있다고 명시되어 있습니다. 댓글 링크여기새 커널을 설치하는 방법을 보여줍니다. 지침을 따랐지만 실행할 때 오류가 발생했습니다 make.

오류는 다음과 같습니다 No rule to make target '/home/<USER>/lkm_example.o', needed by '/home/<USER>/lkm_example.mod'. Stop.

( <USER>내 사용자 이름입니다. 여기에 표시되는 것을 원하지 않습니다.)

Google을 통해 설치해야 한다는 게시물을 여러 개 발견했습니다 linux-headers. 실행을 시도했지만 sudo apt-get install kernel-headers이로 인해 오류가 발생했습니다.E: Unable to locate package kernel-headers

어떻게 진행하나요?

답변1

내가 찾은이 게시물이는 WSL에서 모듈 설치를 허용하지 않는 문제일 수 있음을 나타냅니다.

이봐, 그게 내 대답이야! 기억하다:

  • 나는 이렇게 시작합니다 :

    "시도해 볼 AMD GPU 시스템이 없지만(그리고 ROCm이 WSL2에서 작동할지 확신할 수 없습니다)...".

  • 추천도 없고 동의도 없으며 도움이 되었는지 알려주는 댓글도 없습니다.

그러니까... 믿을 만하다고 믿지 마세요! 반대 투표도 자유롭게 해보세요! 저만의 대답을 하기는 어렵지만, 돌이켜보면 아마도 그랬을 것입니다.아니요정밀한. 링크를 추가하겠습니다이 답변그러나 최신 정보로 리디렉션됩니다. 지금 다음 정보인가요?옳은아니면 아니, 당신이 나를 도와줘야 해요!

이 과정에서는 PyTorch를 사용할 예정이며 계산에는 GPU를 사용하고 싶습니다.

좋아요,그건내가 해결하려는 문제는 ROCm을 지원하는 커널을 구축하는 방법이 아닙니다(더 이상 도움이 되지 않을 것이라고 생각합니다).

현재로서는 이것을 직접 테스트할 AMD GPU가 없지만 적어도 WSL2의 nVideo 2070에서 일부 GPU 컴퓨팅을 수행했습니다.

그래서 이건 내꺼야최신생각하려면 이전 질문, 질문 및 기타 정보를 확인하세요.

  • WSL2에서는 ROCm이 필요하지 않을 수 있습니다. WSL2에서는 다음을 사용하여 통과 시스템을 통해 Linux에서 GPU를 사용할 수 있습니다.윈도우(비 Linux) 드라이버. 을 보면 /usr/lib/wslWSL2 인스턴스에 설치된 두 개의 디렉터리( ../drivers및 ) 를 찾을 수 있습니다 ../lib. (또한 주입됨)을 통해 라이브러리 캐시에 추가됩니다 /etc/ld.so.conf/ld.wsl.conf.

    그것은이것들GPU의 라이브러리 및 드라이버에 대한 액세스를 제공합니다.

  • 작년에 다른 질문을 봤을 때 ROCm이리눅스GPU 컴퓨팅을 위한 동등한 라이브러리입니다. 모듈로 설치되는 경우 필수 GPU에 직접 액세스할 수 없으므로 WSL2에서는 유용하지 않을 것입니다. 지금 돌이켜보면 당시에 알고 있던 지식으로는 알 수 있었을 텐데.

그래서 뭐하다AMD GPU의 WSL2에서 Pytorch를 사용해야 합니까? 여기서도 추측을 해보지만...

  • 이 문서Windows 11이 필요하다는 뜻인 것 같습니다. 대부분의 GPU 컴퓨팅 지원은 Windows 10에서 사용할 수 있다고 생각하지만 이는 Windows 11이 필요한 영역 중 하나일 수 있습니다. Windows 버전을 언급하지 않았으므로 이것이 가능한지 확실하지 않습니다.

  • 최신 AMD 드라이버윈도우. 작년 정도의 것들은 대부분 충분할 것입니다.

  • 적합한 Python 환경. 마이크로소프트강다를 추천해요. 적어도 저는 TensorFlow용 Docker를 직접 사용하게 되었습니다.

  • 종속성은 다음과 같습니다.libblas3 libomp5 liblapack3

  • 그런 다음pip install pytorch-directml

솔직히 그래야 합니다. ~에 따르면이 문서, AMD는 DirectML로 PyTorch를 지원합니다.

WSL2의 nVidia에서 TensorFlow를 실행할 때 필요하지 않습니다.어느추가 기본 드라이버/모듈. 나했다디렉터리는 Docker에 제공 되어야 /usr/lib/wsl/lib하지만 이는 TensorFlow용 특정 이전 Python 버전을 실행해야 하기 때문이며 가장 쉬운 방법은 Docker를 이용하는 것입니다.

관련 정보