Я прошел так много requests
и urllib
учебников, что это почти преступно, но я не могу скачать последнюю версию файла по какой-то причине.
Вот что происходит:
Он успешно загружает последнюю версию bglug.py
. Все работает как шарм.
Я обновляю bglug.py
на GitHub, чтобы показать последние детали.
Когда я снова запускаю механизм обновления , он не извлекает последнюю версию файла, но я знаю, что он действительно получает файл, потому что я настроил его, чтобы сначала удалить файл (только для целей тестирования), и когда я проверяю, файл там.
И последняя версия не будет загружена до следующего дня или около того!
Это кэширование на стороне сервера? Есть ли в Python / requests
веб-кеш, который я должен очистить, чтобы получить последнюю версию файла?
Мой код выглядит следующим образом:
import requests, os
os.remove("bglug.py")
url = "https://raw.githubusercontent.com/TheTechRobo/bglugwatch-cleanslate/master/bglug.py"
r = requests.get(url, stream=True)
with open("bglug.py", "wb") as Writefile:
for chunk in r.iter_content(chunk_size=1024):
if chunk:
Writefile.write(chunk)
Кто-нибудь еще есть такая же проблема? Спасибо!