미안, 내 영어는 좋지 않아....
다운로드를 하려고 하는데이것eBook을 통해 다양한 접근 방식을 시도했습니다.얻다, 그리고
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger
그리고
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
이 웹사이트의 링크만 다운로드하세요.
그리고,
wget -r https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
따라서 재귀를 통해 모든 웹 페이지를 1GB까지 다운로드합니다...
나는 그것을 다운로드하고 나중에 다음과 같이 PDF로 변환합니다.여기설명하다.
누군가 나를 도와주세요. 감사합니다!
답변1
당신이 해야 할 일은 다음과 같습니다:
wget -np -r -l 2 'https://www.oreilly.de/german/freebooks/linag3ger/'
총 49개의 파일(총 3.7MB)이 다운로드됩니다.
기본적으로 wget에게 링크를 재귀적으로 다운로드하도록 지시해야 합니다 -r
. 그런 다음 -l 2
wget에게 2레벨보다 더 깊이 들어가지 말라고 지시하세요.
답변2
wget
다운로드할 항목(이 폴더 아래에 있는 항목)과 다운로드하지 않을 항목(Wiley 사이트의 나머지 모든 항목)을 표준에 알려야 합니다 .
GUI를 사용할 수 있는 경우 "HTTrack Website Copier"와 같은 도구를 사용하면 작업을 단순화할 수 있습니다.