Python - объединение многих URL-адресов и их анализ - PullRequest
2 голосов
/ 24 июня 2010

Ниже приведен скрипт, который я нашел на форуме, и это почти то, что мне нужно, за исключением того, что мне нужно прочитать как 30 разных URL и напечатать их все вместе. Я пробовал несколько вариантов, но скрипт просто ломался. Как мне объединить все URL-адреса 30-х, разобрать и распечатать их.

Если ты поможешь мне, я был бы очень признателен, ты.

import sys
import string
from urllib2 import urlopen
import xml.dom.minidom

var_xml = urlopen("http://www.test.com/bla/bla.xml")
var_all = xml.dom.minidom.parse(var_xml)

def extract_content(var_all, var_tag, var_loop_count):
   return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data

var_loop_count = 0
var_item = " "
while len(var_item) > 0:
   var_title = extract_content(var_all, "title", var_loop_count)
   var_date = extract_content(var_all, "pubDate", var_loop_count)
   print "Title:          ", var_title   
   print "Published Date: ", var_date
   print " "
   var_loop_count += 1

   try:
      var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data
   except:      
      var_item = ""

Ответы [ 2 ]

0 голосов
/ 24 июня 2010

Вы перезаписываете var_item, var_title, var_date.каждая петля.Составьте список этих элементов и поместите каждый var_item, var_title, var_date в список.В конце просто распечатайте свой список.

http://docs.python.org/tutorial/datastructures.html

0 голосов
/ 24 июня 2010

Если это стандартный RSS, я рекомендую использовать http://www.feedparser.org/;извлекать все предметы там просто.

...