Не удается очистить содержимое следующей страницы с помощью Scrapy - PullRequest
0 голосов
/ 08 марта 2019

Я тоже хочу соскрести содержимое со следующих страниц, но оно не перешло на следующую страницу.Мой код:

import scrapy
class AggregatorSpider(scrapy.Spider):
name = 'aggregator'
allowed_domains = ['startech.com.bd/component/processor']
start_urls = ['https://startech.com.bd/component/processor']

def parse(self, response):
    processor_details = response.xpath('//*[@class="col-xs-12 col-md-4 product-layout grid"]')
    for processor in processor_details:
        name = processor.xpath('.//h4/a/text()').extract_first()
        price = processor.xpath('.//*[@class="price space-between"]/span/text()').extract_first()
        print ('\n')
        print (name)
        print (price)
        print ('\n')
    next_page_url = response.xpath('//*[@class="pagination"]/li/a/@href').extract_first()
    # absolute_next_page_url = response.urljoin(next_page_url)
    yield scrapy.Request(next_page_url)

Я не использовал urljoin, потому что next_page_url дает мне весь URL.Я также попробовал аргумент dont_filter = true в функции yield, который дает мне бесконечный цикл на 1-й странице.Сообщение, которое я получаю от терминала: [scrapy.spidermiddlewares.offsite] ОТЛАДКА: Отфильтрованный внешний запрос на www.startech.com.bd: https://www.startech.com.bd/component/processor?page=2>

1 Ответ

2 голосов
/ 08 марта 2019

Это потому, что ваша переменная allowed_domains неверна, используйте allowed_domains = ['www.startech.com.bd'] вместо (см. Документ) .

Вы также можете изменить селектор следующей страницы, чтобы избежать перехода на первую страницу:

import scrapy
class AggregatorSpider(scrapy.Spider):
    name = 'aggregator'
    allowed_domains = ['www.startech.com.bd']
    start_urls = ['https://startech.com.bd/component/processor']

    def parse(self, response):
        processor_details = response.xpath('//*[@class="col-xs-12 col-md-4 product-layout grid"]')
        for processor in processor_details:
            name = processor.xpath('.//h4/a/text()').extract_first()
            price = processor.xpath('.//*[@class="price space-between"]/span/text()').extract_first()
            yield({'name': name, 'price': price})
        next_page_url = response.css('.pagination li:last-child a::attr(href)').extract_first()
        if next_page_url:
            yield scrapy.Request(next_page_url)
...