Я пытаюсь очистить данные, используя python (библиотеки Requests и BeautifulSoup4 вместе с Selenium)
Когда я пытался извлечь некоторые данные с веб-сайта, где данные загружаются после некоторой задержки, он возвращает пустое значение.Я понимаю, что для этой задачи мне нужно использовать WebDriverWait.
import requests
from bs4 import BeautifulSoup
# selenium imports
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support.ui import Select
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.ui import WebDriverWait
from selenium.common.exceptions import TimeoutException
# Initialize a Chrome webdriver
driver = webdriver.Chrome()
# Grab the web page
driver.get("http://")
# use selenium.webdriver.support.ui.Select
# that we imported above to grab the Select element called
# lmStatType, then select the first value
# We will use .find_element_by_name here because we know the name
dropdown = Select(driver.find_element_by_name("lmStatType"))
dropdown.select_by_value("1")
# select the year 2560
dropdown = Select(driver.find_element_by_name("lmYear"))
dropdown.select_by_value("60")
# Now we can grab the search button and click it
search_button = driver.find_elements_by_xpath("//*[contains(text(), 'ตกลง')]"[0]
search_button.click()
# we just look at .page_source of the driver
driver.page_source
# We can feed that into Beautiful Soup
doc = BeautifulSoup(driver.page_source, "html.parser")
# It's a tricky table, also tried with class names
rows = doc.find('table', id='datatable')
print(rows) # returns empty
В вышеприведенном примере я не использовал опробованные опции с инструкциями, относящимися к ожиданию и тайм-ауту селена для веб-драйвера, чтобы понять его пошагово,хотя я пробовал несколько обходных путей.
Кроме того, просто попытался получить данные об уровне района отдельно, например (но не могу определить точный класс / идентификатор)
url = 'http://'
res = requests.get(url)
soup = BeautifulSoup(res.text,"lxml")
for tr in soup.find(class_="display").find_all("tr"):
data = [item.get_text(strip=True) for item in tr.find_all(["th","td"])]
print(data)
Любая помощьоценили.Заранее спасибо.Приношу свои извинения, если это дублирующий вопрос.