Я пытаюсь очистить несколько страниц URL-адреса, применяя каждый номер страницы к URL-адресу и затем сохраняя URL-адреса в списке.При выполнении итерации удаляется только содержимое с первой страницы, а не остальная часть.Где вина?
df = pd.DataFrame()
list_of_links = []
url = 'https://marknadssok.fi.se/publiceringsklient?Page='
for link in range(1,10):
urls = url + str(link)
list_of_links.append(urls)
#Establish connection
for i in list_of_links:
r = requests.get(i)
html = BeautifulSoup(r.content, "html.parser")
#Append each column to it's attribute
table_body=html.find('tbody')
rows = table_body.find_all('tr')
data = []
for row in rows:
cols=row.find_all('td')
cols=[x.text.strip() for x in cols]
data.append(cols)
df = pd.DataFrame(data, columns=['Publiceringsdatum', 'utgivare', 'person', 'befattning',
'Närstående', 'karaktär', 'Instrumentnamn', 'ISIN', 'transaktionsdatum',
'volym', 'volymsenhet', 'pris', 'valuta', 'handelsplats',
'status', 'detaljer' ])