![실제 콘텐츠를 다운로드하지 않고 wget을 사용하여 모든 파일을 재귀적으로 다운로드할 수 있나요?](https://linux55.com/image/89358/%EC%8B%A4%EC%A0%9C%20%EC%BD%98%ED%85%90%EC%B8%A0%EB%A5%BC%20%EB%8B%A4%EC%9A%B4%EB%A1%9C%EB%93%9C%ED%95%98%EC%A7%80%20%EC%95%8A%EA%B3%A0%20wget%EC%9D%84%20%EC%82%AC%EC%9A%A9%ED%95%98%EC%97%AC%20%EB%AA%A8%EB%93%A0%20%ED%8C%8C%EC%9D%BC%EC%9D%84%20%EC%9E%AC%EA%B7%80%EC%A0%81%EC%9C%BC%EB%A1%9C%20%EB%8B%A4%EC%9A%B4%EB%A1%9C%EB%93%9C%ED%95%A0%20%EC%88%98%20%EC%9E%88%EB%82%98%EC%9A%94%3F.png)
때로는 웹사이트의 디렉토리 구조만 알고 싶을 때도 있지만 파일 자체는 중요하지 않습니다. 나는 단지 그들의 이름을 원합니다. 각 항목이 빈 더미 파일인 거울과 비슷합니다.
물론 wget -r
스크립트를 실행하고 실행하여 모든 파일을 삭제하는 것은 잘 되겠지만 서버나 대역폭에 좋지 않기 때문에 낭비적인 느낌이 듭니다. 더 효율적이지만 덜 우아한 접근 방식은 큰 파일이 발견될 때마다 프로세스를 수동으로 중지했다가 다시 시작하거나 매우 짧은 시간 초과를 설정하는 것입니다. 적어도 이것은 다운로드해야 하는 데이터의 양을 크게 줄여줍니다.
내 질문은: 내용을 다운로드하지 않고 wget으로 파일을 생성하도록 할 수 있습니까? 아니면 작업에 잘못된 도구를 사용하고 있습니까?
답변1
요청에 따라 답변 게시:
이 --spider
옵션을 사용하십시오:
wget -r -nv --spider http://example.com
그런 다음 출력에서 사이트 구조를 구문 분석할 수 있습니다. 이미지와 같이 링크가 포함될 가능성이 없는 파일은 다운로드되지 않습니다.