수천 개의 파일(각각 약 2-12MB)을 다운로드해야 합니다. 현재 다음 명령을 사용하고 있습니다.
wget --reject "index.html*" -A *.gz -N -r -l1 -nd --no-check-certificate --user USERNAME --password PASSWORD -np http://website.org/subfolder/
그러나 각 연결은 100Kb/s로 제한되는 것 같습니다. 이 콘텐츠를 어떻게 더 빨리 다운로드할 수 있나요? 가능한 경우 50개 이상의 활성 연결(파일당 1개)