Я пытаюсь сканировать определенные пользователем сайты, но не могу сканировать сайт, где robots.txt препятствует сканированию.Это нормально, но я хочу получить ответ, в котором я могу показать пользователю, что "сайт, который вы вошли, не позволяет сканировать из-за robots.txt".
Есть еще 3 типа предотвращения, для которых я получил код и обработал соответственно, но только это исключение (т.е. предотвращение с помощью robots.txt), которое я не могу обработать.Поэтому, пожалуйста, дайте мне знать, если есть какой-либо способ обработать дело и показать соответствующее сообщение об ошибке.
Я использую Python 3.5.2 и Scrapy 1.5