![웹 페이지에서 100kb가 넘는 모든 이미지를 다운로드하는 방법은 무엇입니까?](https://linux55.com/image/19033/%EC%9B%B9%20%ED%8E%98%EC%9D%B4%EC%A7%80%EC%97%90%EC%84%9C%20100kb%EA%B0%80%20%EB%84%98%EB%8A%94%20%EB%AA%A8%EB%93%A0%20%EC%9D%B4%EB%AF%B8%EC%A7%80%EB%A5%BC%20%EB%8B%A4%EC%9A%B4%EB%A1%9C%EB%93%9C%ED%95%98%EB%8A%94%20%EB%B0%A9%EB%B2%95%EC%9D%80%20%EB%AC%B4%EC%97%87%EC%9E%85%EB%8B%88%EA%B9%8C%3F.png)
특정 웹페이지에 포함된 이미지만 다운로드하고 싶지만 100KB보다 큰 이미지만 다운로드하고 싶습니다. 지금까지 모든 이미지를 다운로드한 다음 작은 이미지를 삭제했지만 이는 그리 효율적이지 않습니다. 다운로드하는 동안 작은 파일을 무시할 수 있는 방법이 있습니까?
답변1
http HEAD 요청을 사용하는 경우 헤더만 반환됩니다.
이는 대략적인 접근 방식입니다(URL 목록이 있다고 가정). 임계값 =expr 100 \* 1024
for url in ${list_of_urls} ; do
size=`curl -s --head ${url} | grep 'Content-Length:' | cut -d ' ' -f 2`
if [ ${size} -gt ${threshold} ] ; then
curl -s ${url}
fi
done