Intereting Posts
Cron не работает / не работает? Каковы преимущества / недостатки иерархии файлов Linux по сравнению с другими ОС? Произвольно перемешать файл с некоторыми дополнительными ограничениями Иногда у вас нет разрешения на создание новых папок на разделе NTFS в Evince Альтернатива Perl для экрана / tmux для мира UNIX? Инструмент сетевого мониторинга для Linux Как я могу анализировать сообщение SELinux SYSCALL? Скрипт для поиска файлов менее разрешающий, чем 750? основное объяснение по NSS, LDAP и PAM Как настроить многопользовательский сервер xrdp для 20 пользователей, которые заставили бы все сеансовые созданные процессы отключиться? как получить идентификатор устройства для определенного сетевого интерфейса? Несколько команд во время SSH внутри сеанса SSH Можно ли отличать идентификатор и идентификатор сеанса от демона? Повторно подключить соединение с обратной связью ssh Добавление правил на мой почтовый сервер

Загрузите одну страницу html со всей необходимой графикой и связанными файлами pdf / zip

Я хочу загрузить сайт с URL-адреса, чтобы посмотреть его локально, точнее:

  • Загрузите одну страницу html (никаких других связанных html-страниц) и все, что необходимо для ее отображения (css, images и т. Д.)
  • Также загрузите все файлы с прямой связью типа pdf и zip .
  • И исправьте все ссылки на них, поэтому ссылки работают локально.
  • Другие ссылки (например, в html-файлы) должны оставаться нетронутыми.

Я открыт для всех инструментов, основанных на Linux (поддержка macports будет приятной), использование wget для меня пока не срабатывало.

Изменить: wget -E -H -k -K -p близок к тому, что я хочу, но как включить файлы PDF и zip? (Источник: Stackoverflow )

HTTrack ( домашняя страница ) может зеркально отображать сайты для автономного просмотра с довольно точными подробными вариантами загрузки и чего нет. Он также может возобновлять прерванные загрузки.

пытаться:

 wget -r -k -l 1 --mirror yourSITE 

Причина -r вместе с --mirror :

-r : cuased wget действует рекурсивно.

--mirror : cuased вы говорите, что wget ведет себя так, как зеркальные сайты. Иногда это нужно.

-k : отдельная документация

-l 1 : уровень 1, один уровень рекурсивно.

Вы попробовали wget -rk -l 1 <sitename> или подобное? Это должно рекурсивно извлекать контент при преобразовании ссылок в относительные пути. Конечный результат может быть больше .html-файлов, чем вы хотите, но вы можете удалить все из них, кроме index.html, которые вы можете просматривать обычным образом.