Как проанализировать медленную загрузку веб-страницы с помощью скрапа в сочетании с селеном? - PullRequest
0 голосов
/ 12 февраля 2020

я попробовал следующее:

import scrapy
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from scrapy_selenium import SeleniumRequest

class PdfxSpider(scrapy.Spider):
    name = 'pdf'
    urls = 'https://www.pdfdrive.com/living-in-the-light-a-guide-to-personal-transformation-d10172273.html'

    def start_requests(self):
         yield SeleniumRequest(
            url=self.urls,
            callback=self.parse,
            #wait_time=1000,
            wait_until=EC.element_to_be_clickable((By.ID, 'alternatives'))
    )

    def parse(self, response):
        print(response.css('a.btn-success').xpath('@href').get())

1 Ответ

0 голосов
/ 12 февраля 2020

Я бы попробовал это с запросами и BeautifulSoup

Как-то так, вы получите аналогичные ссылки и быстро.

import requests
from bs4 import BeautifulSoup

url = 'https://www.pdfdrive.com/living-in-the-light-a-guide-to-personal-transformation-d10172273.html'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'
}

response = requests.get(url, headers=headers)
html = response.text
soup = BeautifulSoup(html, 'lxml')
links = soup.find_all('a', {"class":"ai-similar"})
for link in links:
        print(link['href'])
...