Он получает 403 Forbidden
, потому что он установил неправильные заголовки, он User-Agent
без s
, также у вас есть несколько неправильных селекторов
headers = {"User-Agent":"Mozilla/5.0"}
r = requests.get('https://www.......', headers=headers)
soup = BeautifulSoup(r.text,'html.parser')
for card in soup.find_all('div', class_='col-md-6 col-lg-6 cardWrap'):
##data of each company
name = card.find('h2', class_='resultTitle')
if not name:
continue
nature = card.find('span', class_='resultSubTitle')
phone = card.find('label', class_='phonedisplay')
phone = re.sub(r'\s+,\s+', ', ', phone.text.strip()) if phone else "no phone"
address = card.find('img', attrs={"title" : "Address"})
products = card.find('div', class_='bottomSpaceMargin')
link = card.find('a')
company = '{} \n{} \n{} \n{} \n{} \n{}'.format(
name.text.strip(),
nature.text.strip(),
phone,
address.parent.text.strip(),
products.text.strip(),
link['href']
)
print(company)
print('==========================')