Загрузите одну страницу html со всей необходимой графикой и связанными файлами pdf / zip

Я хочу загрузить сайт с URL-адреса, чтобы посмотреть его локально, точнее:

  • Загрузите одну страницу html (никаких других связанных html-страниц) и все, что необходимо для ее отображения (css, images и т. Д.)
  • Также загрузите все файлы с прямой связью типа pdf и zip .
  • И исправьте все ссылки на них, поэтому ссылки работают локально.
  • Другие ссылки (например, в html-файлы) должны оставаться нетронутыми.

Я открыт для всех инструментов, основанных на Linux (поддержка macports будет приятной), использование wget для меня пока не срабатывало.

Изменить: wget -E -H -k -K -p близок к тому, что я хочу, но как включить файлы PDF и zip? (Источник: Stackoverflow )

HTTrack ( домашняя страница ) может зеркально отображать сайты для автономного просмотра с довольно точными подробными вариантами загрузки и чего нет. Он также может возобновлять прерванные загрузки.

пытаться:

 wget -r -k -l 1 --mirror yourSITE 

Причина -r вместе с --mirror :

-r : cuased wget действует рекурсивно.

--mirror : cuased вы говорите, что wget ведет себя так, как зеркальные сайты. Иногда это нужно.

-k : отдельная документация

-l 1 : уровень 1, один уровень рекурсивно.

Вы попробовали wget -rk -l 1 <sitename> или подобное? Это должно рекурсивно извлекать контент при преобразовании ссылок в относительные пути. Конечный результат может быть больше .html-файлов, чем вы хотите, но вы можете удалить все из них, кроме index.html, которые вы можете просматривать обычным образом.