Я дам вам подсказку, которую я знаю, и надеюсь, что вы можете сделать это самостоятельно.
У сканирования есть правовая проблема, когда вы злоупотребляете Условием обслуживания.
find_all
следует использовать с отметкой «для».он работает как find all
на веб-странице (Ctrl + f).
например
for a in soup.find_all('div', attrs={'js-react-proj-card grid-col-12 grid-col-6-sm grid-col-4-lg'}):
print (a)
3. ссылки должны быть открыты для оператора for.- https://www.kickstarte. .. seed = 2600008 & page = 1
Повторяется жирный номер для выписки, поэтому вы можете сканировать все данные по порядку
4. Ты должен быть связан дважды.- выше ссылка, есть список pj.Вы должны получить ссылку на эти pj.
, так что алгоритму кода нравится это.
for i in range(0,10000):
url = www.kick.....page=i
for pj_link in find_all(each pj's link):
r2 = requests.get(pj_link)
soup2 = BeautifulSoup(r2.text, 'html.parser')
......