Соскоб с помощью красивого супа (спортивные данные) - PullRequest
0 голосов
/ 16 апреля 2019

Когда я пытаюсь загрузить этот код, я получаю две ошибки. 1: во-первых, я не могу правильно обработать данные для name_text.

2: я получаю ошибку отступа для team = name_text.div.text. Я знаю, что это, вероятно, легко решить, но я пробовал разные отступы, и, похоже, ничего не работает.

на веб-сайте я хочу проверить название команды и шансы.

<div class="size14_f7opyze Endeavour_fhudrb0 medium_f1wf24vo participantText_fivg86r" data-automation-id="participant-one">Orlando Magic</div>
<div class="priceText_f71sibe"><span class="size14_f7opyze medium_f1wf24vo priceTextSize_frw9zm9" data-automation-id="price-text">5.85</span></div>

HTML выше был скопирован с сайта.

from bs4 import BeautifulSoup
from urllib.request import urlopen as uReq
my_url = 'https://www.sportsbet.com.au/betting/basketball-us'
uClient = uReq(my_url)
page_html = uClient.read()
uClient.close()

soup = BeautifulSoup(page_html, "html.parser")

price_text = soup.findAll("div",{"class":"priceText_f71sibe"})
name_text = soup.findAll("div",{"class":"size14_f7opyze Endeavour_fhudrb0 medium_f1wf24vo participantText_fivg86r"})
filename = "odds.csv"
f = open(filename,"w")
headers = "Team, odds_team\n"
print(name_text)
f.write(headers)

for price_text in price_texts:
team = name_text.div.text
odds = price_text.span.text

print(odds)
print(team + odds)
f.write(team + "," + odds + "\n")
f.close()

Любая помощь будет великолепна. Приветствия.

Ответы [ 3 ]

1 голос
/ 16 апреля 2019

Ваш for loop отступ не верен.Правильный отступ будет:

for price_text in price_texts:
    team = name_text.div.text
    odds = price_text.span.text
    team = name_text.div.text
    odds = price_text.span.text

    print(odds)
    print(team + odds)
    f.write(team + "," + odds + "\n")
f.close()

С 4 пробелами перед командой и коэффициентами.Пожалуйста, прочитайте документацию по Python ForLoop .

Также нет переменной price_texts.Вам нужно присвоить его, когда вы делаете findAll , вы забыли 'S':

price_texts = soup.findAll("div",{"class":"priceText_f71sibe"})

Последнее, рассмотрите возможность использования with вместо open() и .close() для записи в ваш файл.

0 голосов
/ 16 апреля 2019

не могли бы вы попробовать это?

from bs4 import BeautifulSoup
from urllib.request import urlopen as uReq
my_url = 'https://www.sportsbet.com.au/betting/basketball-us'
uClient = uReq(my_url)
page_html = uClient.read()
uClient.close()

soup = BeautifulSoup(page_html, "html.parser")

price_texts = soup.findAll("div",{"class":"priceText_f71sibe"})
name_texts = soup.findAll("div",{"class":"size14_f7opyze Endeavour_fhudrb0 medium_f1wf24voparticipantText_fivg86r"})
filename = "odds.csv"
f = open(filename,"w")
headers = "Team, odds_team\n"
print(name_text)
f.write(headers)

odds =''
team=''
for price_text in price_texts:
    odds = price_text.text
for name_text in name_texts:
    team = name_text.text
print(odds)
print(team + odds)
f.write(team + "," + odds + "\n")
f.close()
0 голосов
/ 16 апреля 2019

Я думал, что вы могли бы просто перебрать и сохранить их в списки, а затем записать в файл. К сожалению, я не могу получить доступ к сайту на работе, поэтому я не могу протестировать код, но я считаю, что это должно дать результат, который вы ищете:

from bs4 import BeautifulSoup
from urllib.request import urlopen as uReq
import csv
from itertools import zip_longest

my_url = 'https://www.sportsbet.com.au/betting/basketball-us'
uClient = uReq(my_url)
page_html = uClient.read()
uClient.close()

soup = BeautifulSoup(page_html, "html.parser")

price_text = soup.findAll("span",{"data-automation-id":"price-text"})
name_text = soup.findAll("div",{"data-automation-id":"participant-one"})

team_list = [ name.text.strip() for name in name_text ]
odds_list = [ price.text.strip() for price in price_text ]

d = [team_list, odds_list]
export_data = zip_longest(*d, fillvalue = '')
with open('odds.csv', 'w', encoding="ISO-8859-1", newline='') as myfile:
      wr = csv.writer(myfile)
      wr.writerow(("Team", "odds_team"))
      wr.writerows(export_data)
myfile.close()
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...