Целевой файл urls.txt
содержит все URL для загрузки.
├─spiders
│ │ stockInfo.py
│ │ urls.txt
│ │ __init__.py
stockInfo.py
- это мой файл.
import scrapy
import os
import re
class QuotesSpider(scrapy.Spider):
name = "stockInfo"
projectFile = r"d:/toturial/toturial/spiders/urls.txt"
with open(projectFile,"r") as f:
urls = f.readlines()
start_urls = [url.strip() for url in urls]
def parse(self, response):
pass
Я проверил, что вышеприведенное stockInfo.py
может успешно работать на моем локальном компьютере, и завершается командой:
scrapy crawl stockInfo
Теперь я развернул проект на удаленном конце scrapy hub
с
pip install shub
shub login
API key: xxxxxxxxxxxxxxxxx
shub deploy 380020
У него проблемы:
IOError: [Errno 2] No such file or directory: 'd:/toturial/toturial/spiders/urls.txt'
Как это исправить, когда развернуть мой scrapy
в hub
?
Полезно переписать
projectFile = r "d: /toturial/toturial/spiders/urls.txt"
как
projectFile = "./urls.txt"
когда запустить его на моем локальном компьютере.
Странно, бесполезно переписывать
projectFile = r "d: /toturial/toturial/spiders/urls.txt"
как
projectFile = "./urls.txt"
когда запускать его на удаленном конце scrapy hub
.