Scrapy CSV кормить паука долго - PullRequest
0 голосов
/ 29 сентября 2018

Я написал CSVFeedSpider, но это занимает много времени, так как файл огромного размера, может кто-нибудь, пожалуйста, дайте мне знать, что мне нужно сделать, чтобы оптимизировать это.Спасибо.

from scrapy.spiders import CSVFeedSpider


class Asos(CSVFeedSpider):
    name = 'asos'

    start_urls = ['https://productdata.awin.com/datafeed/download/apikey/a9c759ce97541f939fc788547cc5d9d9/'
                  'language/en/fid/23139/columns/aw_deep_link,product_name,aw_product_id,merchant_product_id,'
                  'merchant_image_url,description,merchant_category,search_price,merchant_name,merchant_id,category_name,'
                  'category_id,aw_image_url,currency,store_price,delivery_cost,merchant_deep_link,language,last_updated,'
                  'display_price,data_feed_id/format/csv/delimiter/%2C/compression/gzip/adultcontent/1/']

    delimiter = ','
    quotechar = "\""

    headers = ["aw_deep_link","product_name","aw_product_id","merchant_product_id","merchant_image_url",
               "description","merchant_category","search_price","merchant_name","merchant_id","category_name",
               "category_id","aw_image_url","currency","store_price","delivery_cost","merchant_deep_link","language",
               "last_updated","display_price","data_feed_id"]

    def parse_row(self, response, row):
        print(row["product_name"], row["aw_deep_link"])
...