Доступ к нескольким страницам с нумерацией страниц в Scrapy - PullRequest
0 голосов
/ 24 апреля 2020

У меня есть URL с несколькими страницами. Я пытаюсь разбить страницы на данные из этих URL-адресов, но это работает только один раз (только один next_page). Что не так?

import json
import scrapy
import re
import pkgutil

from scrapy.loader import ItemLoader
from rzc_spider.items import AnnonceItem


class AnnonceSpider(scrapy.Spider):
    name = 'rzc_results'

    def __init__(self, *args, **kwargs):
        data_file = pkgutil.get_data("rzc_spider", "json/input/test_tt.json")
        self.data = json.loads(data_file)

    def start_requests(self):
        for item in self.data:
            request = scrapy.Request(item['rzc_url'], callback=self.parse)
            request.meta['item'] = item
            yield request

    def parse(self, response):
        item = response.meta['item']
        item['results'] = []
        item["car_number"] = response.css(
            "h2.sub::text").extract_first()

        for caritem in response.css("div.ad > div[itemtype='https://schema.org/Vehicle']"):
            data = AnnonceItem()
            #model
            data["model"] = caritem.css(
                "em.title::text").extract_first()

            item['results'].append(data)
        yield item

        next_page = response.css(
            'a.link::attr(href)').extract_first()
        if next_page is not None:
            url_pagination = 'https://www.websiteexample.com' + next_page
            meta = {'item': response.meta['item']}
            yield scrapy.Request(url=url_pagination, callback=self.parse, meta=meta)

    #ban proxies reaction
    def response_is_ban(self, request, response):
        return b'banned' in response.body

    def exception_is_ban(self, request, exception):
        return None

Файл json с URL-адресом (в нашем случае это пример):

[{
    "rzc_url": "https://www.websiteexample.com/model"
}]

1 Ответ

0 голосов
/ 24 апреля 2020

Попробуйте и проверьте URL. Иногда они устанавливают ловушки, поэтому только next_page имеет абсолютный URL, а другой - относительный URL. Вместо сочетания url_pagination и next_page используйте urljoin. Импортируйте его

yield scrapy.Request (urljoin (response.url, item), callback = self.parse, meta = meta)

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...