Моя цель - написать парсер, который будет собирать ВСЕ данные таблицы с заданного URL-адреса википедии.Я пытался собрать все таблицы со страницы примера википедии, используя метод pandas.read_html.К сожалению, похоже, он не собирает все таблицы со страницы.Вот мой код:
inputurl = "https://en.wikipedia.org/wiki/France"
dflist = pd.read_html(inputurl, attrs={"class": "wikitable"})
print("Number of parsed tables: ", len(dflist))
for parsedtable in dflist:
print("Collected table:")
print(parsedtable )
Проблема в том, что возвращается только 2 таблицы, хотя на этой странице более 4 таблиц.Как я могу улучшить код, чтобы собрать их все?Спасибо.