Устранение неполадок `$ wget -A.pdf -r site.com`

Я пытаюсь получить домашнюю работу с командой, но по какой-то причине она не возвращает их. Любая идея почему?

$ wget -A.pdf -r -nd https://noppa.aalto.fi/noppa/kurssi/mat-2.3152/viikkoharjoitukset/ 

Моя цель – загрузить все домашние задания, а затем объединить их с pdftk а затем pdftk поиск по ним с помощью какой-либо программы, но я не могу продолжить (без повторного перехода к Firefox DownloadThemAll -plugin), пока я не получу эту работу. Идеи, почему не работают? У системных администраторов установлены некоторые запреты на использование wgets или почему это не удается?

Я получаю только этот файл robots.txt:

 $ cat robots.txt User-agent: * Disallow: / User-agent: Googlebot Allow: / Disallow: /cgi-bin/ 

One Solution collect form web for “Устранение неполадок `$ wget -A.pdf -r site.com`”

Ваша проблема в robots.txt . Wget смотрит на него и видит

 User-agent: * Disallow: / 

Вы можете использовать команду tell wget для игнорирования robots.txt :

 wget -A.pdf -r -nd -e robots=off https://noppa.aalto.fi/noppa/kurssi/mat-2.3152/viikkoharjoitukset/ 

И это сработает.

  • wget не позволяет исключить каталоги
  • Продолжение прерывания сессии wget?
  • wget для получения списка файлов
  • «Wget -restrict-file-names = windows», похоже, не удалось преобразовать ссылки для NTFS
  • Как использовать wget для загрузки определенных файлов из определенного каталога, когда сам каталог не имеет index.html?
  • У curl есть опция -no-check-certificate, например wget?
  • Wget - получение рекурсивных URL-адресов из списка URL-адресов
  • Могу ли я получить wget -x для загрузки структуры папок, но не создать каталог домена?
  • Резюме не удалось загрузить с помощью инструмента командной строки Linux
  • Почему wget сохраняет рекурсивные данные, несмотря на -l5?
  • curl wget - 403 Запрещено
  • Linux и Unix - лучшая ОС в мире.