Исключая некоторые php-страницы, но не другие с wget?

Я хочу использовать wget для рекурсивной загрузки веб-сайта. Сайт содержит статьи, обслуживаемые php-скриптом, например. www.example.com/article.php?id=1021&ch=5 – это то, что я хочу, вся отдельная статья со всеми главами.

К сожалению, на сайте также есть комментарии – много-много комментариев. Комментарии также обрабатываются php-скриптом, например. www.example.com/comment.php?id=1021&no=144 – этого я не хочу.

В принципе, я хочу всего, кроме комментариев. Проблема в том, что ссылки на статьи, главы и комментарии вкраплены в списки статей и разделов, поэтому нет возможности «точно настроить» уровень рекурсии, чтобы избежать их … и делать уровень для уровня и вручную сортировки, между ними, потребовалось бы слишком много времени и усилий.

Поскольку оба являются php-скриптами, использование опций -A или -R wget для принятия или отклонения файлов с определенным суффиксом не будет работать – или это так? Есть ли другой более точный способ исключить один php-скрипт, но не другие, при загрузке рекурсивно?

One Solution collect form web for “Исключая некоторые php-страницы, но не другие с wget?”

Ниже приводится некоторое представление о том, что вы ищете: http://www.gnu.org/software/wget/manual/html_node/Directory_002dBased-Limits.html

Вы должны иметь возможность использовать --exclude /comment.php чтобы исключить все варианты страницы comment.php

  • Загрузить файл с фактическим именем wget
  • Wget: конвертировать ссылки и избежать повторной загрузки уже загруженных файлов?
  • Использование wget, как загрузить в определенное место, без создания папок и всегда перезаписывать исходные файлы
  • wget рекурсивный только для файлов, которые передают регулярное выражение
  • Curl-эквивалент wget's -read-timeout = X
  • Запустите страницу на imgur
  • wget загружает tar.gz файл как html?
  • Как сделать локальное зеркало веб-сайта с всплывающим окном подтверждения?
  • Что означает 2> & 1 в этой команде?
  • генерировать ссылки страниц с добавочной переменной
  • Как скачать файлы без полного URL?
  • Linux и Unix - лучшая ОС в мире.