У меня есть многопоточный скрипт, который иногда зависает при подключении к серверу, но сервер ничего не отправляет обратно. Netstat показывает подключенный TCP-сокет. Это происходит, даже если у меня установлен тайм-аут. Тайм-аут отлично работает в сценарии без резьбы. Вот пример кода.
def xmlscraper(url):
htmlpage = StringIO.StringIO()
rheader = StringIO.StringIO()
c = pycurl.Curl()
c.setopt(pycurl.USERAGENT, "user agent string")
c.setopt(pycurl.CONNECTTIMEOUT, 60)
c.setopt(pycurl.TIMEOUT, 120)
c.setopt(pycurl.FOLLOWLOCATION, 1)
c.setopt(pycurl.WRITEFUNCTION, htmlpage.write)
c.setopt(pycurl.HEADERFUNCTION, rheader.write)
c.setopt(pycurl.HTTPHEADER, ['Expect:'])
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, url)
c.setopt(pycurl.HTTPGET, 1)
pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
t = threading.Thread(target=xmlscraper, args=(url,))
t.start()
Любая помощь будет принята с благодарностью! пытался решить эту проблему уже несколько недель.
редактировать:
У URL есть около 10 URL. Кажется, не имеет значения, сколько их.
edit2:
Я только что проверил этот код ниже. Я использовал PHP-скрипт, который спит в течение 100 секунд.
import threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT, 3)
c.setopt(pycurl.TIMEOUT, 6)
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, 'http://xxx.xxx.xxx.xxx/test.php')
c.setopt(pycurl.HTTPGET, 1)
c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()
Pycurl в этом коде, по-видимому, правильно истекает. Так что я думаю, это как-то связано с количеством URL? GIL
edit3:
Я думаю, что это может быть связано с самой libcurl, потому что иногда, когда я проверяю сценарий, libcurl по-прежнему подключен к серверу в течение нескольких часов подряд. Если бы у pycurl было правильное время ожидания, сокет был бы закрыт.