지금 wget을 사용하여 모든 stackexchange를 다운로드하세요.

지금 wget을 사용하여 모든 stackexchange를 다운로드하세요.

오늘의 stackexchange 게시물과 그에 연결된 Wikipedia 기사를 모두 재귀적으로 다운로드하고 싶다고 가정해 보겠습니다.

 wget -kprcH -l 4 -t 3 stackexchange.com

이는 Wikipedia 및 Stackexchange 외에 다른 많은 외국 웹사이트로 리디렉션되므로 좋은 옵션이 아닙니다. 내가 사용한다면

wget -kprcH -l 4 -t 3 -D *stackexchange.com,*overflow.com,*overflow.net,*wikipedia.org stackexchange.com

결국 "stackexchange.com"이라는 한 페이지만 다운로드하게 되었습니다.

불필요한 자료를 많이 다운로드하지 않고 오늘날의 스택 교환과 여기에 포함될 수 있는 Wikipedia 링크를 모두 다운로드하려면 어떤 명령을 사용해야 합니까?

답변1

사이트 앞의 "*"(별표)를 제거하세요. 나는 이것을 시도했고 stackexchange를 다운로드했고 Wikipedia.com에 대한 index.html 파일만 다운로드했고 콘텐츠는 없었습니다!

관련 정보