У меня есть вопрос, насколько я думаю, я не могу придумать, как поместить все ссылки изображений в список , я задал этот вопрос раньше, но он был помечен как дубликат для публикации, где OP попросил загрузить все фотографии.
Я попробовал wget -r -P /save/location -A jpeg,jpg http://www.domain.com
но это только загрузка на компьютер. Как я могу извлечь список всех изображений в файл?
использовать опцию паука и вывести выход в grep, чтобы получить только ссылки из них
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
это отобразит все ссылки на стандартный вывод, вы направите его в файл:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt