![http를 통해 대용량 파일을 병렬로 얻는 방법은 무엇입니까?](https://linux55.com/image/216522/http%EB%A5%BC%20%ED%86%B5%ED%95%B4%20%EB%8C%80%EC%9A%A9%EB%9F%89%20%ED%8C%8C%EC%9D%BC%EC%9D%84%20%EB%B3%91%EB%A0%AC%EB%A1%9C%20%EC%96%BB%EB%8A%94%20%EB%B0%A9%EB%B2%95%EC%9D%80%20%EB%AC%B4%EC%97%87%EC%9E%85%EB%8B%88%EA%B9%8C%3F.png)
질문:
HTTP는 오프셋에서 재개를 지원하므로 여러 스레드를 시작하여 서로 다른 파일 오프셋에서 여러 요청과 동시에 파일을 가져올 수 있는 도구(또는 wget 또는 컬과 같은 명령에 대한 기존 옵션)가 있습니까? 이는 각 소켓의 성능을 개별적으로 제한하는 데 도움이 됩니다.
이를 수행하는 프로그램을 작성할 수 있지만 해당 도구가 이미 존재하는지 알고 싶습니다.
배경:
최근에 대용량 ISO를 다운로드하고 싶습니다.하지만!...서버와 인터넷 제공업체 사이 어딘가에서 전송 속도는 100kb로 제한됩니다! 그러나 처음 5~10초 동안의 처리량은 수백 메가비트로 매우 높았습니다. 그래서 몇 초 후에 다시 시작하기 위한 작은 bash 스크립트를 작성했습니다.
while ! timeout 8 wget -c http://example.com/bigfile.iso; do true; done
(내 공급자가 아니길 바라지만... 그럴 수도 있습니다. 누군가 망 중립성을 다시 가져와 주세요!)