import scrapy
class QuotesSpider(scrapy.Spider):
name = 'quotes'
start_urls = [// i have 800 url here
]
def parse(self, response):
for quote in response.css('div.quote'):
yield {
'author': quote.xpath('span/small/text()').get(),
'text': quote.css('span.text::text').get(),
}
иногда сервер становится слишком занятым и не может ответить на все мои запросы (я получаю 503), как я могу увеличить количество повторных попыток для этих URL-адресов? (Скажите scrapy, чтобы он отправил этот запрос еще раз, пока не получит страницу)