![명령줄은 웹 사이트를 저장하기 위해 마우스 오른쪽 버튼을 클릭하여 웹 페이지를 저장하는 것과 같습니다.](https://linux55.com/image/185215/%EB%AA%85%EB%A0%B9%EC%A4%84%EC%9D%80%20%EC%9B%B9%20%EC%82%AC%EC%9D%B4%ED%8A%B8%EB%A5%BC%20%EC%A0%80%EC%9E%A5%ED%95%98%EA%B8%B0%20%EC%9C%84%ED%95%B4%20%EB%A7%88%EC%9A%B0%EC%8A%A4%20%EC%98%A4%EB%A5%B8%EC%AA%BD%20%EB%B2%84%ED%8A%BC%EC%9D%84%20%ED%81%B4%EB%A6%AD%ED%95%98%EC%97%AC%20%EC%9B%B9%20%ED%8E%98%EC%9D%B4%EC%A7%80%EB%A5%BC%20%EC%A0%80%EC%9E%A5%ED%95%98%EB%8A%94%20%EA%B2%83%EA%B3%BC%20%EA%B0%99%EC%8A%B5%EB%8B%88%EB%8B%A4..png)
답변1
를 사용하여 이 작업을 수행하는 방법을 잘 모르겠지만 curl
동일한 옵션 세트가 있다는 것은 의심할 여지가 없습니다.
를 사용하면 wget
다음을 삽입하여 특정 페이지 및 관련 리소스를 다운로드할 수 있습니다.
wget --adjust-extension --span-hosts --convert-links --backup-converted \
--no-directories --timestamping --page-requisites \
--directory-prefix=thepageslug \
https://example.com/page/of/interest
답변2
wget과 컬 모두 원하는 것을 수행할 수 있습니다. 두 명령 모두 아래와 같이 출력 파일 이름을 지정할 수 있습니다.
wget -O <filename> <your_url>
curl -O <filename> <your_url>