Я думаю, что с этим селектором вы не получаете правильный элемент <a>
. Css вашего условия говорит, что нужно получить первый <a>
в tr[class^=deckdbbody]
, но столбец условия не является первым <a>
элементом в tr[class^=deckdbbody]
.
Чтобы выбрать правильный элемент, вы можете использовать xpath contains()
, чтобы проверить, является ли это нужной ссылкой.
>>> response.css("tr[class^=deckdbbody]").xpath(".//a[contains(@href, 'cardconditions')]/text()").extract()
['NM/M', 'PL', 'NM/M', 'NM/M', 'PL', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'PL', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'PL', 'NM/M', 'NM/M', 'PL', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'NM/M', 'PL', 'NM/M', 'NM/M', 'NM/M']
Более того, я не думаю, что вам нужен Scrapy Splash для очистки этого сайта, данные, похоже, доступны из команды scrapy shell
.
Также стоит взглянуть на https://stackoverflow.com/help/minimal-reproducible-example