Итак, я создаю скрипт на Python, чтобы очистить некоторые данные (результаты Кубка мира) из URL, используя Requests и BeautifulSoup4, и пока я тестирую свой код, я делаю больше запросов, чем хотелось бы веб-сайту, в результате чего получается периодически ошибка:
requests.exceptions.ConnectionError: Max retries exceeded with url
На самом деле мне не нужно продолжать вызывать страницу, конечно, мне нужно всего лишь вызвать ее один раз, сохранить возвращенные данные локально и передать их в красивый суп. Конечно, я не первый, кто делает это, есть ли другой способ? Это, вероятно, тривиально, но я довольно новичок в этом - спасибо.
Вот с чем я работаю:
import requests
from bs4 import BeautifulSoup
url = "https://www.telegraph.co.uk/world-cup/2018/06/26/world-cup-2018-fixtures-complete-schedule-match-results-far/"
response = requests.get(url)
html = response.content
soup = BeautifulSoup(html, "html.parser")