Я создал несколько сканеров и хочу запустить их одновременно, используя CrawlerProcess
.Однако при создании пауков я настроил их так, чтобы они работали немного медленнее и имели задержку загрузки.При индивидуальном запуске пауков настройки работают нормально, но когда я запускаю всех четырех пауков, он ползает очень быстро, и несколько сайтов выгоняют меня из сети.Я хотел бы знать, почему CrawlerProcess
не следит за настройками, и если есть способ добиться этого, как мне этого добиться.
Вот как у меня это настроено:
TMP_FILE = os.path.join(os.path.dirname(sys.modules['items'].__file__), 'tmp/items.csv')
process = CrawlerProcess({
'FEED_FORMAT': 'csv',
'FEED_URI': TMP_FILE,
})
process.crawl(Spider1)
process.crawl(Spider2)
process.crawl(Spider3)
process.crawl(Spider4)
process.start()