웹 페이지에 표시된 모든 이미지를 어떻게 다운로드하고 저장합니까?

웹 페이지에 표시된 모든 이미지를 어떻게 다운로드하고 저장합니까?

예를 들어 웹페이지에 표시된 이미지를 다운로드하고 싶습니다.https://www.wikiart.org/en/paintings-by-style/art-nouveau-modern, (아래에모든 작품탭) 폴더에 저장합니다(예:/홈/부머/GH/A_nou/).

이 목표를 어떻게 달성할 수 있나요?

wget또는 을 사용하여 이를 달성할 수 있지만 curl불행히도 이를 어떻게 해야 할지 모르겠습니다.

또한 중간 이미지(배너, 로고,등.), 작품 섹션 아래의 모든 콘텐츠는 전체 크기 이미지입니다.

답변1

소스 코드를 보고 검색하면 .jpg"모든 이미지가 표시됩니다. 모두 큰따옴표로 묶여 있습니다. 따라서 HTML 소스를 컴퓨터에 저장하고 를 선택하여 /tmp/test_art.html검색하고 "줄 바꿈으로 바꾼 다음 로 끝나는 모든 줄을 grep한 jpg다음 모든 줄을 wget에 전달합니다.

wget $(sed 's/"/\n/g;' /tmp/test_art.html| grep 'jpg$')

물론 이것은 정말 사소한 일입니다. 일부 sed 전문가가 곧 와서 grep을 절약하는 한 줄짜리 코드를 내놓을 것입니다... 제 생각엔 이런 일시적인 일을 하기에는 너무 많은 작업인 것 같습니다... 빠르고 더러워요.

터미널을 열고 디렉터리를 파일을 저장하려는 디렉터리로 변경합니다.

cd /home/boomer/GH/A_nou/

그런 다음 위의 명령을 실행하십시오.

관련 정보