Не удается предварительно очистить очищенный HTML в BeautifulSoup - PullRequest
2 голосов
/ 07 января 2010

У меня есть небольшой скрипт, который использует urllib2 для получения содержимого сайта, поиска всех тегов ссылок, добавления небольшого фрагмента HTML вверху и внизу, а затем я пытаюсь его предварительно оптимизировать. Он продолжает возвращать TypeError: элемент последовательности 1: ожидаемая строка, тег найден. Я посмотрел вокруг, я не могу найти проблему. Как всегда, любая помощь, высоко ценится.

import urllib2
from BeautifulSoup import BeautifulSoup
import re

reddit = 'http://www.reddit.com'
pre = '<html><head><title>Page title</title></head>'
post = '</html>'
site = urllib2.urlopen(reddit)
html=site.read()
soup = BeautifulSoup(html)
tags = soup.findAll('a')
tags.insert(0,pre)
tags.append(post)
soup1 = BeautifulSoup(''.join(tags))
print soup1.prettify()

Это трассировка назад:

Traceback (most recent call last): File "C:\Python26\bea.py", line 21, in <module>
        soup1 = BeautifulSoup(''.join(tags))
TypeError: sequence item 1: expected string, Tag found

Ответы [ 3 ]

2 голосов
/ 08 января 2010

Это работает для меня:

soup1 = BeautifulSoup(''.join(str(t) for t in tags)) 

Это решение для переноса данных также дает приличный вывод:

from pyparsing import makeHTMLTags, originalTextFor, SkipTo, Combine

# makeHTMLTags defines HTML tag patterns for given tag string
aTag,aEnd = makeHTMLTags("A")

# makeHTMLTags by default returns a structure containing
# the tag's attributes - we just want the original input text
aTag = originalTextFor(aTag)
aEnd = originalTextFor(aEnd)

# define an expression for a full link, and use a parse action to
# combine the returned tokens into a single string
aLink = aTag + SkipTo(aEnd) + aEnd
aLink.setParseAction(lambda tokens : ''.join(tokens))

# extract links from the input html
links = aLink.searchString(html)

# build list of strings for output
out = []
out.append(pre)
out.extend(['  '+lnk[0] for lnk in links])
out.append(post)

print '\n'.join(out)

печать:

<html><head><title>Page title</title></head>
  <a href="http://www.reddit.com/r/pics/" >pics</a>
  <a href="http://www.reddit.com/r/reddit.com/" >reddit.com</a>
  <a href="http://www.reddit.com/r/politics/" >politics</a>
  <a href="http://www.reddit.com/r/funny/" >funny</a>
  <a href="http://www.reddit.com/r/AskReddit/" >AskReddit</a>
  <a href="http://www.reddit.com/r/WTF/" >WTF</a>
  .
  .
  .
  <a href="http://reddit.com/help/privacypolicy" >Privacy Policy</a>
  <a href="#" onclick="return hidecover(this)">close this window</a>
  <a href="http://www.reddit.com/feedback" >volunteer to translate</a>
  <a href="#" onclick="return hidecover(this)">close this window</a>
</html>
0 голосов
/ 08 июня 2011

Немного о синтаксической ошибке в ответе Джонатана, вот правильный:

    soup1 = BeautifulSoup(''.join([unicode(tag) for tag in tags]))
0 голосов
/ 07 января 2010
soup1 = BeautifulSoup(''.join(unicode(tag) for tag in tags))
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...