Я пытаюсь почистить данные с сайта sciencedirect. Я пытаюсь автоматизировать процесс исключения, обращаясь к проблемам журнала один за другим, создавая список xpath и зацикливая их. когда я запускаю l oop, я не могу получить доступ к остальным элементам после доступа к первому журналу. Этот процесс работал для меня на другом веб-сайте, но не на этом.
Я также хотел знать, есть ли лучший способ получить доступ к этим элементам помимо этого процесса.
#Importing libraries
import requests
import os
import json
from selenium import webdriver
import pandas as pd
from bs4 import BeautifulSoup
import time
import requests
from time import sleep
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
#initializing the chromewebdriver|
driver=webdriver.Chrome(executable_path=r"C:/selenium/chromedriver.exe")
#website to be accessed
driver.get("https://www.sciencedirect.com/journal/journal-of-corporate-finance/issues")
#generating the list of xpaths to be accessed one after the other
issues=[]
for i in range(0,20):
docs=(str(i))
for j in range(1,7):
sets=(str(j))
con=("//*[@id=")+('"')+("0-accordion-panel-")+(docs)+('"')+("]/section/div[")+(sets)+("]/a")
issues.append(con)
#looping to access one issue after the other
for i in issues:
try:
hat=driver.find_element_by_xpath(i)
hat.click()
sleep(4)
driver.back()
except:
print("no more issues",i)