Я хочу загрузить сайт с URL-адреса, чтобы посмотреть его локально, точнее:
pdf
и zip
. Я открыт для всех инструментов, основанных на Linux (поддержка macports
будет приятной), использование wget
для меня пока не срабатывало.
Изменить: wget -E -H -k -K -p
близок к тому, что я хочу, но как включить файлы PDF и zip? (Источник: Stackoverflow )
HTTrack ( домашняя страница ) может зеркально отображать сайты для автономного просмотра с довольно точными подробными вариантами загрузки и чего нет. Он также может возобновлять прерванные загрузки.
пытаться:
wget -r -k -l 1 --mirror yourSITE
Причина -r
вместе с --mirror
:
-r
: cuased wget
действует рекурсивно.
--mirror
: cuased вы говорите, что wget ведет себя так, как зеркальные сайты. Иногда это нужно.
-k
: отдельная документация
-l 1
: уровень 1, один уровень рекурсивно.
Вы попробовали wget -rk -l 1 <sitename>
или подобное? Это должно рекурсивно извлекать контент при преобразовании ссылок в относительные пути. Конечный результат может быть больше .html-файлов, чем вы хотите, но вы можете удалить все из них, кроме index.html, которые вы можете просматривать обычным образом.