Доступен (https://www.mail-archive.com/info-gnu@gnu.org/msg02395.... релиз GNU Wget 1.19.3 (http://www.gnu.org/software/wget/), программы для автоматизации загрузки контента с использованием протоколов HTTP и FTP. В новой версии добавлена поддержка кода ответа 308 (https://ru.wikipedia.org/wiki/%D0%A1%D0%... (Permanent Redirect) и возможность сборки с OpenSSL 1.1 с отключением устаревшей функциональности. Также устранён крах, возникающий в случае обработки ответа без заголовка Content-Type.
URL: https://www.mail-archive.com/info-gnu@gnu.org/msg02395....
Новость: http://www.opennet.dev/opennews/art.shtml?num=47937
До сих пор нет многопоточной загрузки...
И не надо.
Для многопоточной загрузки есть aria2.
...из эпохи Ускорителей Интернетов.PS: сабж уехал в сизиф: http://webery.altlinux.org/task/198325
сизиф -> сизифов труд - бесконечный и безрезультативный?
петросян_опасносте!.jpg
О да! Основатели этой репы что-то такое знали.
#>>изифов труд - бесконечный и безрезуль
> О да! Основатели этой репы что-то такое знали.Эге.
Они знали эту шутку лет за ...цать до вас двоих.
И в отличие от вас сами пошутили над собой.
ПошутИте над их самоиронией? Искромётно, зажигательно! Чтоб на следующие ..цать лет. Не повторяйте заезженное -- удвойте и побейте, да сколько ж можно уже??
А мы усугубимъ: http://webery.altlinux.org/task/198388 (косяк со сжатием поправили).
Бывает, что на стороне сервера режут скорость отдачи.
До сих пор на диалапе?
Не думаю, что на диалап востребована многопоточная загрузка, там скорее функция докачки файла после обрыва актуальна.
aria2c
Многопоточная есть в Wget2.
"Designed and written from scratch" и т.д. :)11.01.2018 Release 1.99.0 (alpha)
HTTP/2.0, brotli, плагины, и другие, кому-то нужные, фичи.
> Многопоточная есть в Wget2.
> "Designed and written from scratch" и т.д. :)
> 11.01.2018 Release 1.99.0 (alpha)
> HTTP/2.0, brotli, плагины, и другие, кому-то нужные, фичи.Ммм... Как "они" ухитрились чисто GPLv3+ проект форкнуть в GPLv3+ обёртку с _L_GPLv3+ ядром/библиотекой?
С нуля что ли переписывали, не форкали? И заодно [из-]бегали инфраструктуры [и правил монастыря] GNU?
не знаю, как сформулировать в гугле, спрошу тут.Иногда с некоторых серверов объемные файлы скачиваются на высокой скорости только скажем первые 200 Мб, далее скорость снижается и, пока не перезапустишь через wget -c, не подымается. Поэтому приходится делать что-то вроде
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^C
wget -c http://...
(спустя 200 Мб) ^CЕсть ли у wget опция прерывать скачивание и перезапускать его через Partial Content каждые 200 Мб? Ну или хотя бы по таймеру. Ну и заодно - как вообще называется такая настройка в хттп-серверах?
^C руками? серьезно? напиши простеший скрипт
Может попробуешь через axel?
> Ну и заодно - как вообще называется такая настройка в хттп-серверах?А это не обязательно через них сделано, могли через шейпинг трафика. В http серверах она может называться как угодно. В nginx это директивы limit_*.
Видимо, админ посчитал так: если файл отдаётся дольше 10-15 минут, то вряд ли кто-то сидит и смотрит на прогрессбар - значит скорость можно занизить в пользу "живых" скачек.
> Есть ли у wget опция прерывать скачивание и перезапускать его через Partial Content каждые 200 Мб?Нет, зато есть опция --limit-rate. Можешь выставить скорость ещё ниже и отомстить серверу.
Так умеет curl с ключами -y и -Y . Докачка по -C - . Недостаток -- не берёт с сервера дату, нужно городить скрипт.Очень полезно было с модемом.