Я использую библиотеку запросов для извлечения простого URL-адреса (здесь я поместил фиктивный URL-адрес, в коде используется обычный URL-адрес):
import requests
response = requests.get("http://example.com/foo/bar/", headers={"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36"})
Локально это работает нормально, но когдаЯ поставил тот же код на моем сервере, этот запрос занимает вечно, чтобы закончить.Я включил вывод журнала для всех этих регистраторов:
urllib3.util.retry
urllib3.util
urllib3
urllib3.connection
urllib3.response
urllib3.connectionpool
urllib3.poolmanager
requests
Это единственный вывод, производимый ими:
2018-05-31 19:55:56,894 - urllib3.connectionpool - DEBUG - Starting new HTTP connection (1): example.com
2018-05-31 19:58:06,676 - urllib3.connectionpool - DEBUG - http://example.com:80 "GET /foo/bar/ HTTP/1.1" 200 None
Самое смешное, что это всегда занимает ровно 2 минутыи 10 секунд для завершения запроса (если вы игнорируете миллисекунды).Локально это мгновенно.
Есть какие-нибудь подсказки, где мне искать дальше?