Как перебрать эти страницы и собрать информацию с каждой? - PullRequest
0 голосов
/ 28 февраля 2019

Я новичок в программировании и мне нужна помощь с моим веб-сканером.

В данный момент у меня есть код, открывающий каждую веб-страницу в списке.Однако я хочу извлечь информацию из каждого, который он загружает.Это то, что у меня есть.

from selenium import webdriver;
import csv;

driver = webdriver.Firefox();

driver.get("https://www.betexplorer.com/baseball/usa/mlb-2018/results/? 
stage=KvfZSOKj&month=all")
links_code : list = driver.find_elements_by_xpath('//a[@class="in-match"]');
first_two : list = links_code[0:2];
first_two_links : list = [];

i : int;
for i in first_two:
    link = i.get_attribute("href");
    first_two_links.append(link);

odds : list = [];
i :int;
for i in first_two_links:
    driver.get(i);
    o = driver.find_element_by_xpath('//span[@class="table-main__detail- 
    odds--hasarchive"]');
    odds.append(o);

**Error:** NoSuchElementException: Message: Unable to locate element: 
//span[@class="table-main__detail- odds--hasarchive"]

Я просто сейчас пытаюсь очистить первые две ссылки, чтобы им было легче управлять.Однако я не могу найти способ обойти эту ошибку.

Мне кажется, что ошибка указывает на то, что она ищет x_path на домашней странице, а не ссылку, по которой следует.

Любая помощь приветствуется.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...