Я использую библиотеку запросов_cache для Python. Похоже, установить кэш просто отлично; запрос URL-адреса создает файл кэша .sqlite, и последующие запросы извлекают эти данные, даже если удаленная страница изменяется.
Мое соединение inte rnet сегодня довольно плохое, и я заметил, что мой сценарий (который делает много (предположительно кэшированные) запросы) работала медленно. В качестве быстрой проверки работоспособности, просто чтобы убедиться, что все работает как положено, я попробовал тестовый скрипт для создания кэша, а затем снова запустил его после отключения компьютера от Wi-Fi. Тем не менее, это ошибки:
requests.exceptions.ConnectionError: HTTPConnectionPool(host='magicplugin.normalitycomics.com', port=80): Max retries exceeded with url: /update/updatelist.txt (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x110390d68>: Failed to establish a new connection: [Errno 8] nodename nor servname provided, or not known'))
Почему запрос даже пытается подключиться к удаленному сайту, если запрос_cache перенаправляет его на использование локальных кэшированных данных? Есть ли способ избежать этого? Мне не нужно замедлять работу скрипта (особенно если у меня плохое соединение) и делать ненужные запросы с чужого удаленного сервера.