http를 통해 대용량 파일을 병렬로 얻는 방법은 무엇입니까?

http를 통해 대용량 파일을 병렬로 얻는 방법은 무엇입니까?

질문:

HTTP는 오프셋에서 재개를 지원하므로 여러 스레드를 시작하여 서로 다른 파일 오프셋에서 여러 요청과 동시에 파일을 가져올 수 있는 도구(또는 wget 또는 컬과 같은 명령에 대한 기존 옵션)가 있습니까? 이는 각 소켓의 성능을 개별적으로 제한하는 데 도움이 됩니다.

이를 수행하는 프로그램을 작성할 수 있지만 해당 도구가 이미 존재하는지 알고 싶습니다.

배경:

최근에 대용량 ISO를 다운로드하고 싶습니다.하지만!...서버와 인터넷 제공업체 사이 어딘가에서 전송 속도는 100kb로 제한됩니다! 그러나 처음 5~10초 동안의 처리량은 수백 메가비트로 매우 높았습니다. 그래서 몇 초 후에 다시 시작하기 위한 작은 bash 스크립트를 작성했습니다.

while ! timeout 8 wget -c http://example.com/bigfile.iso; do true; done

(내 공급자가 아니길 바라지만... 그럴 수도 있습니다. 누군가 망 중립성을 다시 가져와 주세요!)

관련 정보