Как я могу использовать красивый суп, чтобы получить следующие данные от стартера? - PullRequest
0 голосов
/ 10 июня 2019

Я пытаюсь получить некоторые данные от стартера.Как можно использовать красивую суповую библиотеку?

Kick Starter link https://www.kickstarter.com/discover/advanced?woe_id=2347575&sort=magic&seed=2600008&page=7

Это следующая информация, которая мне нужна

Crowdfunding goal
Total crowdfunding
Total backers
Length of the campaign (# of days)

Это мой текущий код

import requests
r = requests.get('https://www.kickstarter.com/discover/advanced?woe_id=2347575&sort=magic&seed=2600008&page=1')
from bs4 import BeautifulSoup
soup = BeautifulSoup(r.text, 'html.parser')
results = soup.find_all('div', attrs={'js-react-proj-card grid-col-12 grid-col-6-sm grid-col-4-lg'})
len(results)

1 Ответ

0 голосов
/ 10 июня 2019

Я дам вам подсказку, которую я знаю, и надеюсь, что вы можете сделать это самостоятельно.

  1. У сканирования есть правовая проблема, когда вы злоупотребляете Условием обслуживания.

  2. find_all следует использовать с отметкой «для».он работает как find all на веб-странице (Ctrl + f).

например

for a in soup.find_all('div', attrs={'js-react-proj-card grid-col-12 grid-col-6-sm grid-col-4-lg'}):
     print (a)

3. ссылки должны быть открыты для оператора for.- https://www.kickstarte. .. seed = 2600008 & page = 1

Повторяется жирный номер для выписки, поэтому вы можете сканировать все данные по порядку

4. Ты должен быть связан дважды.- выше ссылка, есть список pj.Вы должны получить ссылку на эти pj.

, так что алгоритму кода нравится это.

    for i in range(0,10000):
        url = www.kick.....page=i
        for pj_link in find_all(each pj's link):
            r2 = requests.get(pj_link)
            soup2 = BeautifulSoup(r2.text, 'html.parser')
......        
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...