Wget не будет рекурсивно загружать

Я пытаюсь скопировать поток форума с этой структурой каталогов:

На первой странице есть URL-адрес:

  • Как включить локальные файлы заголовков в модуль ядра Linux
  • LXC: Разница в безопасности между корневыми и конечными пользователями, не имеющими привилегированных контейнеров?
  • EXT3 файловая система pre дайджест материал
  • Уменьшите скорость загрузки wget или curl во время загрузки
  • Как загружаются initramfs, если он находится на файловой системе, которую он должен разблокировать?
  • Пользовательский режим linux eth0, подключенный к локальному сетевому устройству, не подходит
  • https://some.site.com/foo/bar/threadNumber 

    Остальные страницы следуют этому формату:

     https://some.site.com/foo/bar/threadNumber/page/2 https://some.site.com/foo/bar/threadNumber/page/3 https://some.site.com/foo/bar/threadNumber/page/* 

    Я использую команду:

     wget --recursive --page-requisites --adjust-extension --no-parent --convert-links https://some.site.com/foo/bar/threadNumber 

    Эта команда может скопировать любой простой URL-адрес. Однако я хочу добавить более высокий каталог и получить все файлы /page/* . Мне не нужны более высокие каталоги и ничего, кроме нижних /page/ файлов. Я также бросил – --mirror .

    Любые идеи, почему эта команда не собирается загружать оставшиеся страницы?

  • Действительно легкий вес для VM без расширений
  • Построить Хром из источника
  • Как сделать минимальный загрузочный linux (только с терминалом) из исходного кода ядра?
  • Unmounted / boot, удален из / etc / fstab, откуда именно GRUB принимает свои настройки?
  • Где последний исходный код команды man для linux?
  • Как я могу перечислить сетевые рабочие устройства и ipv4-адрес в linux без команды ifconfig / ip
  • 3 Solutions collect form web for “Wget не будет рекурсивно загружать”

    Рекурсивно загружает ссылки с проверкой безопасности, что приводит к перенаправлению цикла.

    Команда не работает, потому что ваш сайт использует двойное перенаправление, которое смущает wget. Давайте посмотрим на подробный журнал, который можно вызвать с помощью опции --debug (удаленные строки удалены):

     ---request begin--- GET /<URL> HTTP/1.1 ---response begin--- HTTP/1.1 302 Found Location: https://community.lego.com/auth/securityCheck?action=bounce&referrer=https%3A%2F%2Fcommunity.lego.com%2F<URL> (...) ---request begin--- GET /auth/securityCheck?referrer=https%3A%2F%2Fcommunity.lego.com%2F<URL> HTTP/1.1 ---response begin--- HTTP/1.1 302 Found Location: https://community.lego.com/<URL> (...) Deciding whether to enqueue "https://community.lego.com/<URL>". Already on the black list. Decided NOT to load it. Redirection "https://community.lego.com/<URL>" failed the test. 

    Как видно, он отскакивает ваш запрос на некоторые «проверки безопасности» и обратно. Wget не ожидает, что вторично перенаправляется на ту же страницу, с которой вы пришли, и рассматривает ее как занесенную в черный список, поэтому не следует никаких ссылок.

    Хотя это абсолютно возможно, есть способ сделать некоторую магию печенья, чтобы сделать переопределение проверки безопасности не случаться, я не знаю, как это сделать.

    Однако, если вы захотите перекомпилировать wget вручную, исправление вашей проблемы может быть тривиальным: просто добавьте эти 2 строки в src/recur.c .

      status = retrieve_url (url_parsed, url, &file, &redirected, referer, &dt, false, i, true); + + if (redirected) + hash_table_remove (blacklist, url); if (html_allowed && file && status == RETROK && (dt & RETROKF) && (dt & TEXTHTML)) 

    Это приведет к удалению текущей страницы из черного списка при каждом перенаправлении, тем самым устраняя проблему.

    Будьте предупреждены, что в некоторых случаях он может запускать бесконечные циклы, поэтому это не готовый к отправке патч.

    После того как вы восстановили wget, вы можете просто использовать что-то вроде wget -np -nd -r -k -p <url> чтобы получить весь поток, как и предполагалось.

    Попробуй это:

     wget -nv --mirror --span-hosts --convert-links --adjust-extension --page-requisites --no-parent https://some.site.com/foo/bar/threadNumber 

    Эти команды получают весь поток со всеми элементами со всех сайтов. Вы можете ограничить его по типам, --accept html,gif,png,jpg,jpeg .

    Просто подумайте здесь … как насчет чего-то вроде webhttrack? или сначала запустить через jmeter -> список экспорта ссылок -> затем использовать wget или curl?

    UPDATE Только что протестировано с помощью webhttrack, этот работает на работу и может использоваться как в CLI, так и в Gui ….

    Linux и Unix - лучшая ОС в мире.