Сначала вы читаете URL с пандами, а не с источником страницы.Это приведет к появлению новой страницы, не считанной источником, созданным Selenium.Во-вторых, вы хотите ограничить чтение таблицей с id = table_1.Попробуйте это:
from selenium import webdriver
import time
import pandas as pd
url = 'https://www.iscc-system.org/certificates/all-certificates/'
browser = webdriver.Chrome('/home/giuseppe/bin/chromedriver')
browser.get(url)
csvfile = open('Scrape_certificates', 'a')
for i in range(1,10):
dfs = pd.read_html(browser.page_source, attrs = {'id': 'table_1'})
for df in dfs:
df.to_csv(csvfile, header=False)
link_next_page = browser.find_element_by_id('table_1_next')
link_next_page.click()
time.sleep(4)
csvfile.close()
Вам потребуется удалить или отфильтровать строку 10 для каждого результата, так как это навигация.