저는 www.globalresearch.ca 웹사이트를 좋아해서 복사했습니다. 이 명령은 나에게 효과적이었습니다.
wget -r -l14 -t2 -T60 -E -k --no-check-certificate --restrict-file-names="windows,nocontrol" --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Microsoft Windows NT 5.1)" http://www.globalresearch.ca/
그런데 이게 30시간 넘게 걸리네요! 웹사이트의 전체 사본을 만드세요. 크기가 6GB가 넘습니다.
gnu/linux에서 웹사이트를 복사하는 더 좋고 빠른 방법이 있습니까? "wget"을 사용하여 웹사이트를 한 번 복사한 다음 "wget"을 사용하여 내 하드 드라이브의 파일을 업데이트하고 새 자료만 추가할 수 있습니까? 링크가 하드 드라이브(-k)의 파일을 가리키도록 변환하고 싶습니다.
비슷한 명령은 어떤 모습일까요? 아니면 웹사이트의 사본을 만드는 더 좋고 빠른 방법이 있습니까? 웹사이트를 복사하기 위해 30시간 이상을 기다리고 싶지는 않습니다.
감사해요.
답변1
나는 한때 HTTrack이라는 깔끔한 프로그램을 사용했습니다. 3.22-3(찾을 수 있는 경우)과 같은 스파이웨어가 없는(Windows용) 버전 중 하나를 사용해야 합니다. Linux를 사용하는 경우 스파이웨어 위험이 줄어들 수 있으며 최신 버전이 적합할 수 있습니다.