короткий Perl-скрипт для сканирования нескольких ссылок и извлечения данных - PullRequest
0 голосов
/ 17 февраля 2012

Я искал везде, но не мог найти то, что искал. Я также попытался написать код самостоятельно, используя WWW: Mechanize, но, думаю, слишком много чего не хватает. Так что я пытаюсь сделать это довольно просто. У меня есть сайт с несколькими ссылками и несколькими страницами. Каждая ссылка представляет собой отчет с некоторыми случайными данными. Поэтому я хочу иметь доступ к каждой ссылке и извлекать данные из страниц, на которые осуществлял доступ, и распечатывать их в текстовом файле. Мне просто нужно несколько советов о том, как это сделать, я могу позаботиться обо всем остальном.

Спасибо

Ответы [ 2 ]

0 голосов
/ 17 февраля 2012

Используйте LWP::Simple, если вы знаете, к каким ссылкам обращаться, и Используйте HTML::TokeParser::Simple для анализа документов

0 голосов
/ 17 февраля 2012

Посмотрите на пример программы WWW :: Mechanize ccdl.Я думаю, это то, что вы ищете.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...