Загружать данные параллельно

Мне нужно загрузить 20G данных с помощью ftp. Могу ли я сделать это параллельно (gnu?) Вот некоторые из ссылок на данные.

ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030893/ERR030893.fastq.gz ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030885/ERR030885_1.fastq.gz ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030885/ERR030885_2.fastq.gz ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030894/ERR030894.fastq.gz ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030886/ERR030886_1.fastq.gz ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR030/ERR030886/ERR030886_2.fastq.gz 

Благодаря,

  • Несколько приложений, которые записывают один и тот же файл в общем разделе NFS
  • Головоломка для блокировки Linux
  • Несколько вопросов о системных вызовах и модулях ядра (параллельные службы ядра)
  • возможность параллельной сборки приложения
  • Микрокомпьютерный кластер для стресс-тестирования
  • Выполнение параллельных команд
  • Проблемы параллелизма с параллельной GNU
  • Как распараллелить цикл for при scp-файлах?
  • One Solution collect form web for “Загружать данные параллельно”

    Хотя я не знаю о parallel , я знаю, что отличным инструментом для параллельной загрузки является aria2c .

    Вот выдержка из раздела FTP / HTTP его руководства :

    • -s , --split=[N]
    • Загрузите файл, используя N соединений. Если задано больше N URI, используются первые N URI, а оставшиеся URI используются для резервного копирования. Если указано меньше N URI, эти URI используются более одного раза, так что общее количество N соединений производится одновременно. Количество подключений к одному и тому же хосту ограничено параметром --max-connection-per-server . См. Также параметр --min-split-size

    • По умолчанию: 5

    Linux и Unix - лучшая ОС в мире.