![연결 루프를 확인하고 삭제된 경우 두 번째 루프를 다시 시작하세요.](https://linux55.com/image/176739/%EC%97%B0%EA%B2%B0%20%EB%A3%A8%ED%94%84%EB%A5%BC%20%ED%99%95%EC%9D%B8%ED%95%98%EA%B3%A0%20%EC%82%AD%EC%A0%9C%EB%90%9C%20%EA%B2%BD%EC%9A%B0%20%EB%91%90%20%EB%B2%88%EC%A7%B8%20%EB%A3%A8%ED%94%84%EB%A5%BC%20%EB%8B%A4%EC%8B%9C%20%EC%8B%9C%EC%9E%91%ED%95%98%EC%84%B8%EC%9A%94..png)
웹에서 정보를 반복하면서 가져오는 bash 스크립트가 있습니다. 어젯밤에 테스트를 실행했는데 연결이 2분 동안 끊어지고 스크립트가 중단될 때까지 모든 것이 잘 진행되었습니다.
따라서 이 문제를 극복하려면 연결이 실패했는지 확인한 다음 bash 스크립트를 다시 시작하는 루프를 구축하는 데 여러분의 도움이 필요합니다.
지금 사용하고 있는 스크립트의 예:
while true; do
xargs -d '\n' -I LINE -P2 go run main.go -d LINE -o file < domain &&
xargs -d '\n' -I LINE -P3 ./script -d LINE < domain &&
xargs -d '\n' -I LINE -P2 python3 script4.py -d LINE --output file < domain &&
xargs -d '\n' -I LINE -P2 python3 script3.py -u LINE -o file.txt < domain &&
xargs -d '\n' -I LINE -P3 script2 -t LINE -o recon < domain &&
xargs -d '\n' -I LINE python3 script.py -t 020f3fe83162e016114b32ad9542 -d LINE < domain &&
mv *.txt savehere && dos2unix savehere/*.txt && sort savehere/*.txt | uniq | tr -d '<>,' > results-$(date +%d-%m-%Y_%H_%p).txt
done
답변1
예를 들어 http/https를 통해 연결한 경우 컬을 사용할 수 있습니다.
루프는 다음과 같습니다.
curl http://domain.example.com || $(echo "I am unable to connect to http://domain.example.com and will sleep for 60 seconds; sleep 60;continue)
http 콘텐츠를 가져오려고 시도합니다.http://domain.example.com실패하면 텍스트를 에코하고 60초 동안 절전 모드로 전환한 다음 위에서부터 while을 다시 시작하므로 while 루프의 맨 위에 추가하는 것이 좋습니다.