Я анализирую исходный код многих веб-сайтов, целой огромной сети с тысячами страниц. Теперь я хочу искать вещи в perĺ, я хочу найти количество вхождений ключевого слова.
Для парсинга веб-страниц я использую curl и перенаправляю вывод в «grep -c», который не работает, поэтому я хочу использовать perl. Может ли Perl полностью использоваться для сканирования страницы?
* 1005 Е.Г. *
cat RawJSpiderOutput.txt | grep parsed | awk -F " " '{print $2}' | xargs -I replaceStr curl replaceStr?myPara=en | perl -lne '$c++while/myKeywordToSearchFor/g;END{print$c}'
Объяснение: В текстовом файле выше у меня есть пригодные для использования и неиспользуемые URL. С помощью "Grep parsed" я получаю полезные URL. С помощью awk я выбираю 2-й столбец, содержащий чистый используемый URL. Все идет нормально. Теперь к этому вопросу: с помощью Curl я извлекаю исходный код (тоже добавляя некоторый параметр) и перенаправляю весь исходный код каждой страницы в perl для подсчета вхождений «myKeywordToSearchFor». Я хотел бы сделать это в Perl, только если это возможно.
Спасибо!