Scrapy CrawlSpider: запретить поддомен не будет работать, почему? - PullRequest
0 голосов
/ 11 июня 2018

Я изучаю scrapy и пытаюсь ползти www.google.com/.*.Я запрограммировал следующего паука, но он все еще посещает субдомены, такие как support.google.com.Чего мне не хватает?

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor

class GoogleSpider(CrawlSpider):
    name = 'google'
    allowed_domains = ['www.google.com']
    start_urls = ['http://www.google.com']

    rules = [
        Rule(LinkExtractor(
                  allow=[r"^http[s]?://www.google.com/.*"]),
                  callback='parse_item',
                  follow = True)
    ]

    def parse_item(self, response):
        print('Processing {}'.format(response.url))

Примечание : было слишком много отладочных выходов, поэтому я добавил строку LOG_LEVEL = 'ERROR' в settings.py и использую print дляпосмотреть, какая веб-страница посещена.

Этот скрипт печатает URL субдоменов, например support.google.com, почему?

1 Ответ

0 голосов
/ 11 июня 2018

попробуйте только с

allowed_domains = ['google.com']

вместо allowed_domains = ['www.google.com']

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...