Я хотел использовать сканер в node.js, чтобы сканировать все ссылки на веб-сайте (внутренние ссылки) и получить заголовок каждой страницы, я видел этот плагин на npm crawler , если я проверю в документах есть следующий пример:
var Crawler = require("crawler");
var c = new Crawler({
maxConnections : 10,
// This will be called for each crawled page
callback : function (error, res, done) {
if(error){
console.log(error);
}else{
var $ = res.$;
// $ is Cheerio by default
//a lean implementation of core jQuery designed specifically for the server
console.log($("title").text());
}
done();
}
});
// Queue just one URL, with default callback
c.queue('http://balenol.com');
Но что я действительно хочу - это сканировать все внутренние URL-адреса на сайте и встроен ли он в этот плагин, или его нужно писать отдельно? я не вижу никакой опции в плагине, чтобы посетить все ссылки на сайте, это возможно?