Найти количество ссылочных ссылок, представленных на веб-странице - PullRequest
0 голосов
/ 29 июня 2019

У меня следующий вопрос. Я выполняю все эти шаги, но получаю ответ как 1568 или 1572. Но, очевидно, оба эти ответа неверны. Может ли кто-нибудь помочь мне понять, что я делаю здесь неправильно?


Чтение содержимого html по ссылке 'https://en.wikipedia.org/wiki/Python_(programming_language)'. Сохранение содержимого в переменной html_content.

Создайте объект BeautifulSoup с помощью html_content и html.parser. Сохраните результат в переменной суп.

Найдите количество ссылочных ссылок, присутствующих в объекте супа. Сохраните результат в переменной n_links.

Подсказка: используйте метод find_all и теги.

Печать n_links.

1 Ответ

0 голосов
/ 29 июня 2019

Здесь может быть что-то семантическое. Не уверены, так как вы не указали фактический номер цели для ответа. Если требуемые ссылки из раздела references, вам нужно ограничиться этим разделом html с родительским классом. Я бы использовал селекторы CSS, примененные через select в этом случае. Это дает 391.

from bs4 import BeautifulSoup as bs
import requests

html_content = requests.get('https://en.wikipedia.org/wiki/Python_(programming_language)#References').content
soup = bs(html_content, 'html.parser')
n_links = [item['href'] for item in soup.select('.reflist a')]
print(len(n_links))
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...