Я пытаюсь сделать простой веб-скребок, в котором я беру информацию со страницы HTML. Это просто, но у меня есть проблема, которую я не могу решить: когда я сам загружаю страницу HTML и разбираю ее с помощью BeautifulSoup, она анализирует все и предоставляет мне все данные, это нормально, но мне не нужно сделать это. Вместо этого я пытаюсь использовать ссылку, которая, похоже, не работает. Каждый раз, когда я использую ссылку с помощью функции urlopen и анализирую страницу с помощью BeautifulSoup, всегда кажется, что он полностью игнорирует / исключает некоторые списки и таблицы из файла HTML. Эти таблицы появляются, когда я просматриваю страницу в Интернете с помощью метода «Проверить элемент», и они также появляются, когда я сам загружаю страницу HTML, но они никогда не появляются, когда я использую функцию «urlopen». Я даже пробовал кодировать данные поста и отправлять их в качестве аргумента функции, но, похоже, это тоже не работает.
import bs4
from urllib.request import urlopen as uReq
from urllib.parse import urlencode as uEnc
from bs4 import BeautifulSoup as soup
my_url = 'https://sp.com.sa/en/tracktrace/?tid=RB961555017SG'
#data = {'tid':'RB961555017SG'}
#sdata = uEnc(data)
#sdata = bytearray(sdata, 'utf-8')
uClient = uReq(my_url, timeout=2) # opening url or downloading the webpage
page_html = uClient.read() # saving html file in page_html
uClient.close() # closing url or connection idk properly
page_soup = soup(page_html, "html.parser") # parsing the html file and saving
updates = page_soup.findAll("div",{"class":"col-sm-12"})
#updates = page_soup.findAll("ol", {})
print(updates)
Эти таблицы содержат нужную мне информацию, могу ли я как-то исправить это?