Перехват ошибок http - PullRequest
       5

Перехват ошибок http

11 голосов
/ 15 июля 2010

как я могу отловить ошибки 404 и 403 для страниц в python и urllib (2), например?

Есть ли быстрые пути без больших фанатов класса?

Добавлена ​​информация (трассировка стека):

Traceback (most recent call last):
  File "test.py", line 3, in <module>
    page = urllib2.urlopen("http://localhost:4444")
  File "/usr/lib/python2.6/urllib2.py", line 126, in urlopen
    return _opener.open(url, data, timeout)
  File "/usr/lib/python2.6/urllib2.py", line 391, in open
    response = self._open(req, data)
  File "/usr/lib/python2.6/urllib2.py", line 409, in _open
    '_open', req)
  File "/usr/lib/python2.6/urllib2.py", line 369, in _call_chain
    result = func(*args)
  File "/usr/lib/python2.6/urllib2.py", line 1161, in http_open
    return self.do_open(httplib.HTTPConnection, req)
  File "/usr/lib/python2.6/urllib2.py", line 1136, in do_open
    raise URLError(err)
urllib2.URLError: <urlopen error [Errno 111] Connection refused>

Ответы [ 2 ]

22 голосов
/ 15 июля 2010
import urllib2 
try:
   page = urllib2.urlopen("some url")
except urllib2.HTTPError, err:
   if err.code == 404:
       print "Page not found!"
   elif err.code == 403:
       print "Access denied!"
   else:
       print "Something happened! Error code", err.code
except urllib2.URLError, err:
    print "Some other error happened:", err.reason

В вашем случае ошибка возникает еще до того, как может быть установлено соединение HTTP - поэтому вам нужно добавить еще один обработчик ошибок, который перехватывает URLError. Но это никак не связано с ошибками 404 или 403.

5 голосов
/ 15 июля 2010
req = urllib2.Request('url')
>>> try:
>>>     urllib2.urlopen(req)
>>> except urllib2.URLError, e:
>>>     print e.code
>>>     print e.read()
...