Поскольку у вас есть 500 URL-адресов, вы можете просто сохранить его в файл.Затем вы можете прочитать строки в список и использовать read_html () для каждого, чтобы получить список данных.Получите второй столбец первого кадра данных в список и используйте модуль csv, чтобы записать его в файл.
import pandas as pd
import csv
url_list=[]
with open('file.csv','w') as csvfile, open('urls.txt','r') as urlfile:
writer = csv.writer(csvfile, delimiter=',', quotechar='"')
#Write the headers
writer.writerow(['State','City','Country','Callsign','Network Affiliation'])
#Read urls into a list
urls=urlfile.readlines()
for url in urls:
dfs = pd.read_html(url.strip())
#convert second column of 1st dataframe to a list and write to csv file
writer.writerow(list(dfs[0][1])[:-1])
urls.txt
https://nocable.org/browse-stations/callsign/cadenatres-linares-nl
https://nocable.org/browse-stations/callsign/k27hm-d-quanah-tx
file.csv
State,City,Country,Callsign,Network Affiliation
Newfoundland and Labrador,AGUALEGUAS,USA,CADENATRES,INDEPENDENT
Texas,QUANAH,USA,27,K27HM-D,INDEPENDENT
Возможно, вы захотите добавить случайную задержку при использовании read_html для каждого URL.Кроме того, если вы хотите сделать это частями, скажем, 50 URL-адресов и т. Д., Не забудьте изменить режим записи на «a» с «w» и удалить код, который записывает заголовки со второго раза.