В настоящее время я прохожу курс Удеми "Автоматизировать скучный материал", урок 40. Разбор HTML с модулем «Красивый суп». Через несколько минут Ал использует запросы html страницы amazon и использует soup.select с селектором цен, чтобы распечатать его. В настоящее время я пытаюсь сделать это с точно таким же кодом, за исключением использования заголовков с, кажется, необходимо, в противном случае я получаю ошибку сервера. Я прочитал несколько похожих вопросов, и общее решение, похоже, заключается в том, чтобы найти источник данных с помощью сетевой панели. К сожалению, я понятия не имею, как это сделать: /
import requests
import bs4
headers = {'User-Agent': 'Chrome'}
url = 'https://www.amazon.com/Automate-Boring-Stuff-Python-Programming-ebook/dp/B00WJ049VU/ref=tmm_kin_swatch_0?_encoding=UTF8&qid=&sr='
res = requests.get(url, headers=headers)
soup = bs4.BeautifulSoup(res.text, features='html.parser')
print(soup.select('#mediaNoAccordion > div.a-row > div.a-column.a-span4.a-text-right.a-span-last > span.a-size-medium.a-color-price.header-price'))