Как загрузить все файлы, связанные с веб-сайтом с помощью wget

Я использую следующую команду для получения всех PDF-файлов с веб-сайта:

wget --no-directories --content-disposition --restrict-file-names=nocontrol -e robots=off -A.pdf -r \ url 

Однако это только загружает файлы .pdf. Как я могу расширить эту команду, чтобы также загружать файлы .ppt и .doc?

One Solution collect form web for “Как загрузить все файлы, связанные с веб-сайтом с помощью wget”

wget -A принимает разделенный запятой accept LIST, а не только один элемент.

 wget --no-directories --content-disposition --restrict-file-names=nocontrol \ -e robots=off -A.pdf,.ppt,.doc -r url 

Смотрите man wget и ищите -A для получения более подробной информации.

  • загрузить несколько файлов из sourceforge
  • Как использовать wget для загрузки всех ссылок с моего сайта и сохранения в текстовый файл?
  • Продолжить загрузку, если временная метка не изменилась
  • Как объединить wget, сортировать и сохранять в новое имя файла?
  • Как загрузить дубликаты изображений?
  • Что означает 2> & 1 в этой команде?
  • wget для рекурсивной загрузки файлов dxf
  • Несколько учетных данных пользователя в wget
  • curl download отлично работает, но wget не работает с помощью ssl
  • Загрузите список веб-страниц в файл и переименуйте их, чтобы избежать перезаписи?
  • wget не может быть убит с помощью 'kill -9'
  • Interesting Posts
    Linux и Unix - лучшая ОС в мире.