Несмотря на использование заголовков в Запросе, я получаю 404 запрещенную ошибку в python после очистки 2-3 страниц одного и того же сайта.
Я хочу открыть URL-адрес с помощью urllib.request.Request ('someurl'):
Я пробовал код ниже, но после очистки 2 или 3 страниц, на 4-й или других страницах он показывает запрещенныйсообщение, не знаю, как преодолеть это, Любая помощь будет оценена.
url='https://ezinearticles.com/?cat=Travel-and-Leisure:Adventure-Travel&page=4'
def url(self,url):
timeout = 600
req = urllib.request.Request(url, headers={'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) '
'AppleWebKit/537.11 (KHTML, like Gecko) '
'Chrome/23.0.1271.64 Safari/537.11',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Charset': 'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
'Accept-Encoding': 'none',
'Accept-Language': 'en-US,en;q=0.8',
'Connection': 'keep-alive'}
html = urllib.request.urlopen(req, timeout=timeout).read()
self.page_soup = soup(html, "html.parser")
self.ws2 = wb.active
Я получаю urllib.error.HTTPError: Ошибка HTTP 403: Запрещено