Wget не будет рекурсивно загружать

Я пытаюсь скопировать поток форума с этой структурой каталогов:

На первой странице есть URL-адрес:

https://some.site.com/foo/bar/threadNumber 

Остальные страницы следуют этому формату:

 https://some.site.com/foo/bar/threadNumber/page/2 https://some.site.com/foo/bar/threadNumber/page/3 https://some.site.com/foo/bar/threadNumber/page/* 

Я использую команду:

 wget --recursive --page-requisites --adjust-extension --no-parent --convert-links https://some.site.com/foo/bar/threadNumber 

Эта команда может скопировать любой простой URL-адрес. Однако я хочу добавить более высокий каталог и получить все файлы /page/* . Мне не нужны более высокие каталоги и ничего, кроме нижних /page/ файлов. Я также бросил – --mirror .

Любые идеи, почему эта команда не собирается загружать оставшиеся страницы?

3 Solutions collect form web for “Wget не будет рекурсивно загружать”

Рекурсивно загружает ссылки с проверкой безопасности, что приводит к перенаправлению цикла.

Команда не работает, потому что ваш сайт использует двойное перенаправление, которое смущает wget. Давайте посмотрим на подробный журнал, который можно вызвать с помощью опции --debug (удаленные строки удалены):

 ---request begin--- GET /<URL> HTTP/1.1 ---response begin--- HTTP/1.1 302 Found Location: https://community.lego.com/auth/securityCheck?action=bounce&referrer=https%3A%2F%2Fcommunity.lego.com%2F<URL> (...) ---request begin--- GET /auth/securityCheck?referrer=https%3A%2F%2Fcommunity.lego.com%2F<URL> HTTP/1.1 ---response begin--- HTTP/1.1 302 Found Location: https://community.lego.com/<URL> (...) Deciding whether to enqueue "https://community.lego.com/<URL>". Already on the black list. Decided NOT to load it. Redirection "https://community.lego.com/<URL>" failed the test. 

Как видно, он отскакивает ваш запрос на некоторые «проверки безопасности» и обратно. Wget не ожидает, что вторично перенаправляется на ту же страницу, с которой вы пришли, и рассматривает ее как занесенную в черный список, поэтому не следует никаких ссылок.

Хотя это абсолютно возможно, есть способ сделать некоторую магию печенья, чтобы сделать переопределение проверки безопасности не случаться, я не знаю, как это сделать.

Однако, если вы захотите перекомпилировать wget вручную, исправление вашей проблемы может быть тривиальным: просто добавьте эти 2 строки в src/recur.c .

  status = retrieve_url (url_parsed, url, &file, &redirected, referer, &dt, false, i, true); + + if (redirected) + hash_table_remove (blacklist, url); if (html_allowed && file && status == RETROK && (dt & RETROKF) && (dt & TEXTHTML)) 

Это приведет к удалению текущей страницы из черного списка при каждом перенаправлении, тем самым устраняя проблему.

Будьте предупреждены, что в некоторых случаях он может запускать бесконечные циклы, поэтому это не готовый к отправке патч.

После того как вы восстановили wget, вы можете просто использовать что-то вроде wget -np -nd -r -k -p <url> чтобы получить весь поток, как и предполагалось.

Попробуй это:

 wget -nv --mirror --span-hosts --convert-links --adjust-extension --page-requisites --no-parent https://some.site.com/foo/bar/threadNumber 

Эти команды получают весь поток со всеми элементами со всех сайтов. Вы можете ограничить его по типам, --accept html,gif,png,jpg,jpeg .

Просто подумайте здесь … как насчет чего-то вроде webhttrack? или сначала запустить через jmeter -> список экспорта ссылок -> затем использовать wget или curl?

UPDATE Только что протестировано с помощью webhttrack, этот работает на работу и может использоваться как в CLI, так и в Gui ….

  • загрузка файлов с помощью wget
  • Уменьшите скорость загрузки wget или curl во время загрузки
  • Запись вывода wget или curl в пользовательское имя файла на основе URL-адреса
  • Как заставить wget сохранять содержимое веб-страницы в файл?
  • Запуск тысяч параллельных фоновых процессов в сценарии bash
  • Загрузите файлы в формате pdf и zip с помощью wget с веб-сайта php
  • Кэш DNS для wget
  • Как загрузить файлы с веб-страницы, указывающей на каталог?
  • Почему wget -r не получает все подкаталоги FTP?
  • Извлечение каталога из stdout из wget
  • Как заставить wget конвертировать * все * загруженные ссылки в относительные?
  • Linux и Unix - лучшая ОС в мире.