파일의 IP 주소 목록에서 웹페이지 가져오기

파일의 IP 주소 목록에서 웹페이지 가져오기

파일에 IP 주소 목록이 있습니다. ip.txt라고 하겠습니다. zmap을 사용하여 포트 80에서 서브넷을 스캔했습니다. 따라서 이 파일에는 약 100개의 주소가 반환되었습니다. 각 IP를 웹 브라우저에 표시하는 대신 프로그래밍 방식으로 스크립트를 파일을 반복하고 각 활성 IP에 대한 웹 페이지를 jpg 파일로 캡처하여 로컬 디렉터리에 저장하려면 어떻게 해야 할까요? 저는 프로그래머라기보다는 네트워크/관리자에 가깝습니다. 따라서 최종 결과는 디렉토리에 캡처된 라이브 웹페이지입니다.

답변1

이 루프를 사용하세요(Chromium):

#!/bin/bash

while read ip; do
    # chromium or chromium-browser on some Linux distributions
    chromium --headless --disable-gpu --screenshot "http://$ip"
    mv screenshot.png "${ip}.png"
    convert "${ip}.png" "${ip}.jpg" # require ImageMagick
done < ip_list.txt

또는 다음 루프(Firefox):

#!/bin/bash

while read ip; do
    firefox -headless -screenshot "http://$ip"
    mv screenshot.png "${ip}.png"
    convert "${ip}.png" "${ip}.jpg" # require ImageMagick
done < ip_list.txt

관련 정보