Я бы хотел yield
больше запросов в конце CrawlSpider
, который использует Rules
.
Я заметил, что не смог обработать больше запросов, выполнив это в методе spider_closed
:
self.crawler.engine.crawl(r, self)
Я заметил, что этот метод работает в методе spider_idle
, но я хотел бы подождать, чтобы убедиться, что сканирование завершено, прежде чем выдавать больше запросов.
Я установил настройку CLOSESPIDER_TIMEOUT = 30
Какой код будет ждать 20 секунд бездействия перед запуском процесса подачи большего количества запросов?
Есть ли лучший способ?