Я уверен, что это легко, но почему-то я застрял, чтобы получить ссылку href
под тегом a
, которая переходит на каждую страницу с описанием товара. Я также не вижу ни одного javascript Чего мне не хватает?
import requests
from bs4 import BeautifulSoup as bs
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
import time
import pandas as pd
urls = [
'https://undefeated.com/search?type=product&q=nike'
]
final = []
with requests.Session() as s:
for url in urls:
driver = webdriver.Chrome('/Users/Documents/python/Selenium/bin/chromedriver')
driver.get(url)
products = [element for element in WebDriverWait(driver, 30).until(EC.visibility_of_all_elements_located((By.XPATH, "//div[@class='product-grid-item ']")))]
soup = bs(driver.page_source, 'lxml')
time.sleep(1)
href = soup.find_all['href']
print(href)
Выход:
[]
Затем я попытался soup.find_all('a')
, и он выполнил целую кучу, включая href
Я ищу, но все еще не могу специально извлечь только href ...