Как сканировать все внутренние URL сайта с помощью сканера? - PullRequest
0 голосов
/ 03 мая 2018

Я хотел использовать сканер в node.js, чтобы сканировать все ссылки на веб-сайте (внутренние ссылки) и получить заголовок каждой страницы, я видел этот плагин на npm crawler , если я проверю в документах есть следующий пример:

var Crawler = require("crawler");

var c = new Crawler({
   maxConnections : 10,
   // This will be called for each crawled page
   callback : function (error, res, done) {
       if(error){
           console.log(error);
       }else{
           var $ = res.$;
           // $ is Cheerio by default
           //a lean implementation of core jQuery designed specifically for the server
           console.log($("title").text());
       }
       done();
   }
});

// Queue just one URL, with default callback
c.queue('http://balenol.com');

Но что я действительно хочу - это сканировать все внутренние URL-адреса на сайте и встроен ли он в этот плагин, или его нужно писать отдельно? я не вижу никакой опции в плагине, чтобы посетить все ссылки на сайте, это возможно?

1 Ответ

0 голосов
/ 04 мая 2018

Следующий фрагмент сканирует все URL-адреса в каждом найденном URL-адресе.

const Crawler = require("crawler");

let obselete = []; // Array of what was crawled already

let c = new Crawler();

function crawlAllUrls(url) {
    console.log(`Crawling ${url}`);
    c.queue({
        uri: url,
        callback: function (err, res, done) {
            if (err) throw err;
            let $ = res.$;
            try {
                let urls = $("a");
                Object.keys(urls).forEach((item) => {
                    if (urls[item].type === 'tag') {
                        let href = urls[item].attribs.href;
                        if (href && !obselete.includes(href)) {
                            href = href.trim();
                            obselete.push(href);
                            // Slow down the
                            setTimeout(function() {
                                href.startsWith('http') ? crawlAllUrls(href) : crawlAllUrls(`${url}${href}`) // The latter might need extra code to test if its the same site and it is a full domain with no URI
                            }, 5000)

                        }
                    }
                });
            } catch (e) {
                console.error(`Encountered an error crawling ${url}. Aborting crawl.`);
                done()

            }
            done();
        }
    })
}

crawlAllUrls('https://github.com/evyatarmeged/');
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...