Нажмите на кнопку, используя Selenium и Scrapy Spider - PullRequest
0 голосов
/ 22 мая 2018

Я только начал, и я был на этом в течение недели или двух.Я просто пользуюсь Интернетом, но теперь я дошел до того, что не могу понять, или моя проблема не может быть найдена где-либо еще.Если вы не поняли мою программу, я хочу очистить данные, затем нажать на кнопку, затем очистить данные, пока я не обработаю уже собранные данные.затем перейдите на следующую страницу, которая находится в списке.Я достиг точки, где я соскребаю первые 8 данных, но не могу найти способ нажать «увидеть больше!»кнопка.Я знаю, что должен использовать Selenium и Xpath кнопки.В любом случае вот мой код:

class KickstarterSpider(scrapy.Spider):
name = 'kickstarter'
allowed_domains = ['kickstarter.com']
start_urls = ["https://www.kickstarter.com/projects/zwim/zwim-smart-swimming-goggles/community", "https://www.kickstarter.com/projects/zunik/oriboard-the-amazing-origami-multifunctional-cutti/community"]

def _init_(self, driver):
    self.driver = webdriver.Chrome(chromedriver)

def parse(self, response):
    self.driver.get('https://www.kickstarter.com/projects/zwim/zwim-smart-swimming-goggles/community')
    backers = response.css('.founding-backer.community-block-content')
    b = backers[0]

    while True:
        try:
            seemore = selfdriver.find_element_by_xpath('//*[@id="content-wrap"]').click()
        except:
            break
    self.driver.close()

def parse2(self,response):
    print('you are here!')


    for b in backers:
        name = b.css('.name.js-founding-backer-name::text').extract_first()
        backed = b.css('.backing-count.js-founding-backer-backings::text').extract_first()
        print(name, backed)

1 Ответ

0 голосов
/ 22 мая 2018

Будьте уверены, веб-драйвер, используемый в scrapy, загружает и интерпретирует JS (idk ... это может быть решением)

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...