У меня есть сценарий, который
- Находит все узлы ' страницы ' в XML-файле
- Разбирает все эти страницы, собирает данные, находит дополнительные страницы
- Дополнительные страницы анализируются и информация собирается
Скриптовый скрипт:
class test_spider(XMLFeedSpider):
name='test'
start_urls=['https://www.example.com']
custom_settings={
'ITEM_PIPELINES':{
'test.test_pipe': 100,
},
}
itertag='pages'
def parse1(self,response,node):
yield Request('https://www.example.com/'+node.xpath('@id').extract_first()+'/xml-out',callback=self.parse2)
def parse2(self,response):
yield{'COLLECT1':response.xpath('/@id').extract_first()}
for text in string.split(response.xpath(root+'/node[@id="page"]/text()').extract_first() or '','^'):
if text is not '':
yield Request(
'https://www.example.com/'+text,
callback=self.parse3,
dont_filter=True
)
def parse3(self,response):
yield{'COLLECT2':response.xpath('/@id').extract_first()}
class listings_pipe(object):
def process_item(self,item,spider):
pprint(item)
Идеальный результат - комбинированный элемент, такой как
{'COLLECT1': 'некоторые данные', 'COLLECT2': ['некоторые данные', 'некоторые данные', ...]}
Есть ли способ вызывать конвейер после каждого события parse1? и получить комбинированный набор предметов?