Я попытался распечатать результаты ваших суповых вызовов, например nlist = soup.find_all('li', class_='agent-name')
, и возвращаю пустые массивы.Функции супа не находят никаких данных.
Глядя дальше, запрос супа возвращается пустым:
soup = bs(res.content, 'lxml')
print(soup)
дает:
<html>
<head><title>429 Too Many Requests</title></head>
<body bgcolor="white">
<center><h1>429 Too Many Requests</h1></center>
<hr/><center>nginx</center>
</body>
</html>
Похоже, что сайт обнаруживает вас как бота, а непозволяя тебе скрести.Вы можете притвориться, что вы являетесь веб-браузером, следуя приведенному здесь ответу: Очистка веб-страниц с Python с использованием ошибки BeautifulSoup 429
ОБНОВЛЕНИЕ:
Добавление агента пользователя в запросделает трюк:
res = requests.get('https://www.raywhite.com/contact/?type=People&target=people&suburb=Sydney%2C+NSW+2000&radius=50%27%27&firstname=&lastname=&_so=contact', headers = {'User-agent': 'Super Bot 9000'})
Теперь вы получите желаемый результат.
Некоторые веб-сайты отклоняют запросы, в которых нет агента пользователя, и кажется, что этот сайт делает это.Добавление пользовательского агента делает ваш запрос более нормальным, поэтому сайт разрешает его выполнение.Там действительно нет никакого стандарта на это или что-то, это зависит от сайта к сайту.