Извлечение ссылок из таблицы HTML с использованием BeautifulSoup с нечистым исходным кодом - PullRequest
2 голосов
/ 23 ноября 2011

Я пытаюсь почистить статьи из базы данных китайских газет. Вот часть исходного кода (вставка фрагмента сайта с ключами):

<base href="http://huylpd.twinbridge.com.ezp-prod1.hul.harvard.edu/web\" /><html>
<! -- <%@ page contentType="text/html;charset=GBK" %>
<head>
<meta http-equiv="Content-Language" content="zh-cn">
<meta http-equiv="Content-Type" content="text/html; charset=gb2312">
<meta name="GENERATOR" content="Microsoft FrontPage 4.0">
<meta name="ProgId" content="FrontPage.Editor.Document">
<title>概览页面</title>
...
</head>
...
</html>  
</html>

Когда я пытаюсь выполнить простой просмотр ссылок в таблице следующим образом:

import urllib, urllib2, re, mechanize
from BeautifulSoup import BeautifulSoup
br = mechanize.Browser(factory=mechanize.RobustFactory())
br.addheaders = [('User-agent', 'Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US; rv:1.9.0.6')]
br.set_handle_robots(False)

url = 'http://huylpd.twinbridge.com.ezp-prod1.hul.harvard.edu/search?%C8%D5%C6%DA=&%B1%EA%CC%E2=&%B0%E6%B4%CE=&%B0%E6%C3%FB=&%D7%F7%D5%DF=&%D7%A8%C0%B8=&%D5%FD%CE%C4=%B9%FA%BC%CA%B9%D8%CF%B5&Relation=AND&sortfield=RELEVANCE&image1.x=27&image1.y=16&searchword=%D5%FD%CE%C4%3D%28%B9%FA%BC%CA%B9%D8%CF%B5%29&presearchword=%B9%FA%BC%CA%B9%D8%CF%B5&channelid=16380'
page = br.open(url)
soup = BeautifulSoup(page)
links = soup.findAll('a') # links is empty =(

Python даже не находит ничего в html, он же возвращает пустой список. Я думаю, это потому, что исходный код начинается с тега base href, а Python распознает только два тега в документе: base href и html.

Есть идеи, как почистить ссылки в этом случае? Большое спасибо !!

Ответы [ 3 ]

1 голос
/ 23 ноября 2011

Удаление второй строки заставило БС найти все теги. Я не нашел лучшего способа разобрать это.

page = br.open(url)
page = page.read().replace('<! -- <%@ page contentType="text/html;charset=GBK" %>', '')
soup = BeautifulSoup(page)
0 голосов
/ 23 ноября 2011

BS на самом деле больше не разрабатывается - и предлагает вам взглянуть на lxml

У меня нет доступа к этому конкретному URL, но я смог заставить его работать, используя HTML-фрагмент (к которому я добавил тег a)

>>> soup = lxml.html.document_fromstring(u)
>>> soup.cssselect('a')
>>> soup.cssselect('a')[0].text_content() #for example
0 голосов
/ 23 ноября 2011

Когда ваш html сильно испорчен, лучше сначала немного его почистить, например, в этом случае удалить все до, удалить все после (первый) Загрузите одну страницу, отлейте ее вручную, чтобы увидеть, что приемлемо для Beautifulsoup, а затем напишите несколько регулярных выражений для предварительной обработки.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...