Я абсолютный новичок в Web Scraping с использованием Python и очень мало знаю о программировании на Python. Я просто пытаюсь получить информацию о юристах в штате Теннесси. На веб-странице есть несколько ссылок, внутри которых есть дополнительные ссылки на категории юристов, и в них указаны подробности юриста.
Я уже выделил ссылки различных городов в список, а также выделил различные категории юристов, доступных в каждой из ссылок городов. Ссылки профиля также были получены и сохранены как набор. Сейчас я пытаюсь получить имя, адрес, фамилию и область практики каждого юриста и сохранить его в виде файла .xls.
import requests
from bs4 import BeautifulSoup as bs
import pandas as pd
final=[]
records=[]
with requests.Session() as s:
res = s.get('https://attorneys.superlawyers.com/tennessee/', headers = {'User-agent': 'Super Bot 9000'})
soup = bs(res.content, 'lxml')
cities = [item['href'] for item in soup.select('#browse_view a')]
for c in cities:
r=s.get(c)
s1=bs(r.content,'lxml')
categories = [item['href'] for item in s1.select('.three_browse_columns:nth-of-type(2) a')]
for c1 in categories:
r1=s.get(c1)
s2=bs(r1.content,'lxml')
lawyers = [item['href'].split('*')[1] if '*' in item['href'] else item['href'] for item in
s2.select('.indigo_text .directory_profile')]
final.append(lawyers)
final_list={item for sublist in final for item in sublist}
for i in final_list:
r2 = s.get(i)
s3 = bs(r2.content, 'lxml')
name = s3.find('h2').text.strip()
add = s3.find("div").text.strip()
f_name = s3.find("a").text.strip()
p_area = s3.find('ul',{"class":"basic_profile aag_data_value"}).find('li').text.strip()
records.append({'Names': name, 'Address': add, 'Firm Name': f_name,'Practice Area':p_area})
df = pd.DataFrame(records,columns=['Names','Address','Firm Name','Practice Areas'])
df=df.drop_duplicates()
df.to_excel(r'C:\Users\laptop\Desktop\lawyers.xls', sheet_name='MyData2', index = False, header=True)
Я ожидал получить файл .xls, но ничего не возвращается, так как выполнение продолжается. Он не завершается, пока я не принудительно остановлюсь, и файл .xls не будет создан.