wget и curl сохранение веб-страницы в виде тарабарщины (зашифровано?)

Когда я загружаю https://www.wired.com/category/security/ используя либо wget либо curl , результат является тарабарщиной / зашифрованной.

Возможно ли (и если да, что является правильным способом) сохранить эту веб-страницу (незашифрованный / простой HTML) из командной строки?

One Solution collect form web for “wget и curl сохранение веб-страницы в виде тарабарщины (зашифровано?)”

Управляющее резюме:

Похоже, что загруженный файл сжимается, и вы должны его распаковать.

Подробный ответ

Бег:

 wget https://www.wired.com/category/security/ 

Результат с загруженным файлом index.html

Выполнение команды file в файле загрузки показывает:

 $ file index.html index.html: gzip compressed data, from Unix 

Переименование файла и его распаковка превращают его в HTML-документ

 $ mv index.html index.html.gz $ gunzip index.html.gz $ file index.html 

index.html: HTML-документ, текст Юникода UTF-8, с очень длинными строками, с перерисовкой

Дополнительная информация – почему wget загрузил сжатый файл?

Как объясняется в разделе Как оптимизировать сайт с помощью сжатия GZIP :

Вместо того, чтобы загружать большой текстовый файл, современный HTTP-сервер / клиенты используют сжатый HTTP-ответ, который уменьшает размер передаваемых файлов.

  • curl, wget ничего не возвращают
  • WGET Продолжить без --no-check-certificate
  • Как быстро загрузить тысячи файлов?
  • Уменьшите скорость загрузки wget или curl во время загрузки
  • Как получить wget для использования имени прямого URL-файла в качестве имени выходного файла для сокращенного URL-адреса
  • Могу ли я использовать wget для рекурсивного скачивания всех файлов, но не их фактического содержимого?
  • Могу ли я доверять статусу выхода wget, даже если он был перезапущен?
  • wget возвращает html-страницу вместо исходного файла
  • Может ли wget * печатать * URL-адреса зависимостей страниц?
  • Загрузить файл с фактическим именем wget
  • Как я могу использовать wget для создания списка URL-адресов из index.html?
  • Почему «wget -r -e robots = off http://ccachicago.org» не действует рекурсивно?
  • Interesting Posts
    Linux и Unix - лучшая ОС в мире.