Я только что установил и запустил scrapy, и он прекрасно работает, но у меня есть два (нуб) вопроса. Прежде всего, я должен сказать, что я совершенно новичок в области скрапа и паутинки.
Можете ли вы ограничить количество просканированных ссылок? У меня есть сайт, который не использует нумерацию страниц и просто перечисляет много ссылок (которые я сканирую) на их домашней странице. Мне плохо, когда я сканирую все эти ссылки, когда мне действительно нужно сканировать первые 10 или около того.
Как вы управляете несколькими пауками одновременно? Сейчас я использую команду scrapy crawl example.com
, но у меня также есть пауки для example2.com и example3.com. Я хотел бы запустить всех своих пауков, используя одну команду. Возможно ли это?