Только начал работать над проектом Scrapy. Я создал новый проект scrapy, используя следующую команду:
scrapy startproject <projectname>
Внутри папки spiders я создаю свой класс scrapy, в котором есть все логики c для очистки данных. Я использую Scrapy Shell для тестирования.
Когда я создаю первого паука, Scrapy Shell работает нормально. Но при создании второго паука скребковая оболочка не работает. Используя приведенную ниже команду для вызова оболочки scrapy:
scrapy shell <url>
Я вижу следующее:
[s] Useful shortcuts:
[s] fetch(url[, redirect=True]) Fetch URL and update local objects (by default, redirects
are followed)
[s] fetch(req) Fetch a scrapy.Request and update local objects
[s] shelp() Shell help (print this help)
[s] view(response) View response in a browser
Я ожидаю следующее:
[s] Useful shortcuts:
[s] fetch(url[, redirect=True]) Fetch URL and update local objects (by default, redirects
are followed)
[s] fetch(req) Fetch a scrapy.Request and update local objects
[s] shelp() Shell help (print this help)
[s] view(response) View response in a browser
>>>
>>> отсутствует в последней строке. Есть ли какие-либо конфигурации, которые должны быть добавлены для этого?