Сканирование веб-сайта с помощью wget и ограничение общего количества просканированных ссылок - PullRequest
3 голосов
/ 11 февраля 2011

Я хочу узнать больше о сканерах, поигравшись с инструментом wget.Я заинтересован в том, чтобы сканировать сайт моего отдела и найти первые 100 ссылок на этом сайте.Пока команда ниже - то, что я имею.Как ограничить остановку сканера после 100 ссылок?

wget -r -o output.txt -l 0 -t 1 --spider -w 5 -A html -e robots=on "http://www.example.com"

Ответы [ 2 ]

2 голосов
/ 12 февраля 2011

Вы не можете. wget не поддерживает это, поэтому, если вы хотите что-то подобное, вам придется написать инструмент самостоятельно.

Вы можете получить основной файл, разобрать ссылки вручную и извлечь их одну за другой с ограничением в 100 элементов. Но это не то, что поддерживает wget.

Вы также можете взглянуть на HTTrack для сканирования веб-сайтов, у него есть несколько дополнительных опций для этого: http://www.httrack.com/

0 голосов
/ 06 июля 2016
  1. Создайте файл fifo (mknod / tmp / httpipe p)
  2. сделайте вилку
    • в дочернем элементе wget --spider -r -l 1 http://myurl --output-file /tmp/httppipe
    • в папе:читать построчно /tmp/httpipe
    • анализировать вывод =~ m{^\-\-\d\d:\d\d:\d\d\-\- http://$self->{http_server}:$self->{tcport}/(.*)$}, print $1
    • считать строки;после 100 строк просто закройте файл, он сломает канал
...