soup = BeautifulSoup(browser.page_source, "html.parser")
for h1 in soup.find_all('h2'):
try:
array.append("https://www.chamberofcommerce.com" + h1.find("a")['href'])
print("https://www.chamberofcommerce.com" + h1.find("a")['href'])
except:
pass
input=browser.find_element_by_xpath('//a[@class="next"]')
while input:
input.click()
time.sleep(10)
soup = BeautifulSoup(browser.page_source, "html.parser")
for h1 in soup.find_all('h2'):
try:
array.append("https://www.chamberofcommerce.com" + h1.find("a")['href'])
print("https://www.chamberofcommerce.com" + h1.find("a")['href'])
except:
pass
Эта часть кода удаляет URL-адреса списков на желтых страницах, код работал нормально, пока я не использовал для удаления URL-адреса только с первой страницы поиска. Теперь я хочу, чтобы он нажимал на следующую кнопку, пока страницы поиска не закончатся. Пример: если у вас 20 страниц поиска, то бот selenuim должен нажать на кнопку «Далее» и удалить URL, пока не достигнет 20-й страницы,
Пожалуйста, ознакомьтесь с логикой кода, а также я получаю следующую ошибку после того, как бот достигает страницы 2, где фактическое количество страниц равно 15 и происходит сбой на странице 2:
selenium.common.exceptions.StaleElementReferenceException: Message: stale element reference: element is not attached to the page document