Daweo правильно, сервер Adidas проверяет заголовок User-Agent
.
Это работает для меня:
import requests
from bs4 import BeautifulSoup
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:74.0) Gecko/20100101 Firefox/74.0",
#"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
#"Accept-Language": "en-US,en;q=0.5",
}
odpowiedz = requests.get("https://www.adidas.pl/search?q=ultraboost", headers=headers)
soup = BeautifulSoup(odpowiedz.text, 'html.parser')
Он даже принимает "aaaaaaaaaaaaaadaaaMozilla"
.
Для Adidas.com, если у вас нет приемлемого User-Agent
, он возвращает страницу, объясняющую, почему:
Во время релизов продуктов с высоким трафиком c мы имеем дополнительная защита для предотвращения попадания ботов на наш сайт. Мы делаем это, чтобы защитить клиентов и дать всем шанс получить кроссовки. Что-то в вашей настройке должно было вызвать срабатывание нашей системы безопасности, поэтому мы не можем позволить вам зайти на сайт.