Я получаю следующую ошибку.
2019-05-29 10:47:14 [scrapy.core.engine] ИНФОРМАЦИЯ: Паук открыт
2019-05-29 10:47:14 [scrapy.extensions.logstats] ИНФОРМАЦИЯ: Просканировано 0 страниц
(при 0 стр / мин), соскоб 0 штук (при 0 ед / мин) 2019-05-29
10:47:14 [scrapy.extensions.telnet] ИНФОРМАЦИЯ: Консоль Telnet прослушивает
127.0.0.1:6023 2019-05-29 10:47:15 [scrapy.core.engine] ОТЛАДКА: Сканировано (200) https://www.goodreads.com/robots.txt> (реферер:
Нет) 2019-05-29 10:47:16 [scrapy.core.engine] ОТЛАДКА: Сканировано (200)
https://www.goodreads.com/quotes?page=1> (рефери: нет)
2019-05-29 10:47:16 [scrapy.core.scraper] ОТЛАДКА: Соскоб с <200
<a href="https://www.goodreads.com/quotes?page=1" rel="nofollow noreferrer">https://www.goodreads.com/quotes?page=1> {'text': ["\ n« Не
плачь, потому что все кончено, улыбнись, потому что это случилось. ”\ n"], 'author':
'\ n Dr. Seuss \ n', 'tags':
[«приписано-нет-источник», «плач», «плач», «опыт», «счастье»,
«радость», «жизнь», «неправильно назначенный-доктор-Сьюз», «оптимизм», «грусть»,
'улыбка', 'улыбка']} 2019-05-29 10:47:16 [scrapy.core.scraper]
ОШИБКА: обработка ошибки Spider https://www.goodreads.com/quotes?page=1> (реферер: нет)
(последний вызов последний): файл
"c: \ programdata \ anaconda3 \ lib \ site-packages \ parsel \ selector.py", строка
238, в xpath
** kwargs) Файл "src / lxml / etree.pyx", строка 1586, в файле lxml.etree._Element.xpath "src / lxml / xpath.pxi", строка 307, в
lxml.etree.XPathElementEvaluator. call File
«src / lxml / xpath.pxi», строка 227, в
lxml.etree._XPathEvaluatorBase._handle_result
lxml.etree.XPathEvalError: Неверный предикат
Во время обработки вышеуказанного исключения произошло другое исключение:
Traceback (последний вызов был последним): File
"C: \ ProgramData \ anaconda3 \ Lib \ сайт-пакеты \ SCRAPY \ Utils \ defer.py",
строка 102, в iter_errback
yield next (it) Файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ scrapy \ spidermiddlewares \ offsite.py",
строка 29, в process_spider_output
для x в результате: файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ scrapy \ spidermiddlewares \ referer.py",
строка 339, в
return (_set_referer (r) для r в результате или ()) Файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ scrapy \ spidermiddlewares \ urllength.py",
строка 37, в
return (r для r в результате или () если _filter (r)) файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ scrapy \ spidermiddlewares \ deep.py",
строка 58, в
вернуть (r для r в результате или () если _filter (r)) файл "C: \ Users \ Zona \ Documents \ Visual \ demo_project \ demo_project \ spiders \ goodreads.py",
строка 23, в разборе
next_page = response.selector.xpath ('// a [@class = "next_page" / @ href'). extract () Файл
"c: \ programdata \ anaconda3 \ lib \ site-packages \ parsel \ selector.py", строка
242, в xpath
six.reraise (ValueError, ValueError (msg), sys.exc_info () [2]) Файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ six.py", строка 692, в
ререйз
повысить значение.with_traceback (tb) Файл "c: \ programdata \ anaconda3 \ lib \ site-packages \ parsel \ selector.py", строка
238, в xpath
** kwargs) Файл "src / lxml / etree.pyx", строка 1586, в файле lxml.etree._Element.xpath "src / lxml / xpath.pxi", строка 307, в
lxml.etree.XPathElementEvaluator. call File
«src / lxml / xpath.pxi», строка 227, в
lxml.etree._XPathEvaluatorBase._handle_result ValueError: XPath
ошибка: неверный предикат в // a [@class = "next_page" / @ href
2019-05-29 10:47:16 [scrapy.core.engine] ИНФОРМАЦИЯ: Закрытие паука
(закончено) 2019-05-29 10:47:16 [scrapy.statscollectors] ИНФОРМАЦИЯ:
Статистика Dumping Scrapy: {'загрузчик / request_bytes': 621,
'downloader / request_count': 2,
'downloader / request_method_count / GET': 2,
d»ownloader / response_bytes ': 29812,' downloader / response_count ': 2,' downloader / response_status_count / 200 ': 2,' finish_reason ':' finish ',' finish_time ': datetime.datetime (2019, 5, 29, 5, 47, 16, 767370), 'item_scraped_count': 1, 'log_count / DEBUG': 3,
'log_count / ERROR': 1, 'log_count / INFO': 9,
'response_received_count': 2, 'robotstxt/ request_count ': 1,
' robotstxt / response_count ': 1,
' robotstxt / response_status_count / 200 ': 1,' планировщик / удаленный доступ ': 1,' планировщик / удаленный доступ / память ': 1,' планировщик/ enqueued ': 1,
' планировщик / enqueued / memory ': 1,' spider_exceptions / ValueError ': 1,' start_time ': datetime.datetime (2019, 5, 29, 5, 47, 14, 108786)}
2019-05-29 10:47:16 [scrapy.core.engine] ИНФОРМАЦИЯ: Паук закрыт (закончен)
, но здесь это 1, что означает, что паук не сканирует даже первую страницу.