Я использую Scrapy Spider для очистки некоторых данных с веб-сайтов, но не все ссылки хороши. Я получаю ошибку NotSupported
для некоторых из них, и я хотел бы сохранить эти URL-адреса в файле или определить другое поведение. Есть ли способ поймать scrapy.exceptions.NotSupported
и определить пользовательское поведение?
Я наивно пробовал следующий код, но он не работает.
try:
yield scrapy.Request(url, callback=self.parse)
except scrapy.exceptions.NotSupported:
self.logger.info(url)