Python: сохранение большой веб-страницы в файл - PullRequest
5 голосов
/ 22 ноября 2011

Позвольте мне начать с того, что я не новичок в программировании, но я очень плохо знаком с Python.

Я написал программу, использующую urllib2, которая запрашивает веб-страницу, которую я хотел бы сохранить в файл.Веб-страница размером около 300 КБ, которая не кажется мне особенно большой, но кажется достаточной, чтобы доставить мне неприятности, поэтому я называю ее «большой».Я использую простой вызов для копирования непосредственно из объекта, возвращенного из urlopen, в файл:

file.write(webpage.read())

, но он просто будет сидеть несколько минут, пытаясь записать вфайл, и я в конечном итоге получаю следующее:

Traceback (most recent call last):
  File "program.py", line 51, in <module>
    main()
  File "program.py", line 43, in main
    f.write(webpage.read())
  File "/usr/lib/python2.7/socket.py", line 351, in read
    data = self._sock.recv(rbufsize)
  File "/usr/lib/python2.7/httplib.py", line 541, in read
    return self._read_chunked(amt)
  File "/usr/lib/python2.7/httplib.py", line 592, in _read_chunked
    value.append(self._safe_read(amt))
  File "/usr/lib/python2.7/httplib.py", line 649, in _safe_read
    raise IncompleteRead(''.join(s), amt)
httplib.IncompleteRead: IncompleteRead(6384 bytes read, 1808 more expected)

Я не знаю, почему это должно так печалить программу?


РЕДАКТИРОВАТЬ |

здеськак я получаю страницу

jar = cookielib.CookieJar()

cookie_processor = urllib2.HTTPCookieProcessor(jar);

opener = urllib2.build_opener(cookie_processor)
urllib2.install_opener(opener)

requ_login = urllib2.Request(LOGIN_PAGE,
                             data = urllib.urlencode( { 'destination' : "", 'username' : USERNAME, 'password' :  PASSWORD } ))

requ_page = urllib2.Request(WEBPAGE)    
try:
    #login
    urllib2.urlopen(requ_login)

    #get desired page
    portfolio = urllib2.urlopen(requ_page)
except urllib2.URLError as e:
    print e.code, ": ", e.reason

1 Ответ

5 голосов
/ 22 ноября 2011

Я бы использовал удобную функцию копирования файлового объекта , предоставляемую модулем shutil. Работало на моей машине:)

>>> import urllib2
>>> import shutil
>>> remote_fo = urllib2.urlopen('http://docs.python.org/library/shutil.html')
>>> with open('bigfile', 'wb') as local_fo:
...     shutil.copyfileobj(remote_fo, local_fo)
... 
>>> 

ОБНОВЛЕНИЕ: Возможно, вы захотите передать 3-й аргумент copyfileobj, который управляет размером внутреннего буфера, используемого для передачи байтов.

UPDATE2: В этом нет ничего фантастического shutil.copyfileobj. Он просто читает кусок байтов из объекта исходного файла и многократно записывает его в целевой объект файла, пока больше нечего читать. Вот фактический исходный код, который я взял из стандартной библиотеки Python:

def copyfileobj(fsrc, fdst, length=16*1024):
    """copy data from file-like object fsrc to file-like object fdst"""
    while 1:
        buf = fsrc.read(length)
        if not buf:
            break
        fdst.write(buf)
...