Я только начал экспериментировать с PyCharm 2018.3.5, Anaconda 2018.12, но мне очень трудно настроить его с помощью Scrapy. Поэтому я хотел бы попросить вас всех о помощи, чтобы все заработало. Я следую следующему учебнику , чтобы проверить, работает ли Scrapy с PyCharm и Anaconda. Это не похоже на случай. Настройка выполняется на компьютере под управлением Windows 10 с последними обновлениями.
Я также включил каждый шаг процесса установки и, надеюсь, вы сможете указать, где я ошибся.
- Установка Anaconda в папку по умолчанию.
- Установите PyCharm в папку по умолчанию.
- Установите OpenSSL (для этой версии PyCharm вам, очевидно, нужно установить ее, чтобы он мог найти пакеты; ссылка: https://slproweb.com/products/Win32OpenSSL.html).
- Я продолжаю запускать PyCharm и создаю свой первый проект Scrapy, используя следующие настройки:
- Я продолжаю ждать, пока PyCharm не завершит работу со всем, а затем я открываю Anaconda Navigator, которую я буду использовать для установки scrapy и beautifulsoup4 . Следующее изображение показывает результат:
- В PyCharm Scrapy также виден:
- Затем я захожу в Проводник и перехожу к
C:\Users\admin Man\PycharmProjects\Test
(обратите внимание, что это тот же каталог, что и на шаге 4).
- Итак, сначала я попытался использовать командную строку, но это не удалось:
Я читал, что это потому, что Подсказка Анаконды что-то делает с путями. Поэтому я использовал следующую команду в Anaconda Prompt.
Небольшой вопрос между ними. Мне было интересно, как я могу заставить его работать в cmd.exe, что я делал в приглашении Anaconda, не активируя среду . Я думаю, что ответ на этот вопрос поможет мне лучше понять, что делает подсказка Anaconda.
- Это успешно, теперь у меня есть следующий каталог:
- Итак, я просто последовал этому уроку онлайн и создал следующего паука.
- Затем я настроил следующую конфигурацию
Я попытался запустить консоль Python и эмулировать параметры, но все это не удалось. Я проверил, есть ли у меня пакет запроса, и у меня есть запрос 2.21.0.
Я получил следующую ошибку:
C:\ProgramData\Anaconda3\envs\Test\python.exe C:/ProgramData/Anaconda3/envs/Test/Lib/site-packages/scrapy/cmdline.py crawl quotes
Traceback (most recent call last):
File "C:/ProgramData/Anaconda3/envs/Test/Lib/site-packages/scrapy/cmdline.py", line 8, in <module>
import scrapy
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\scrapy\__init__.py", line 27, in <module>
from . import _monkeypatches
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\scrapy\_monkeypatches.py", line 20, in <module>
import twisted.persisted.styles # NOQA
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\twisted\persisted\styles.py", line 21, in <module>
from twisted.python.compat import _PY3, _PYPY
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\twisted\python\__init__.py", line 11, in <module>
from .compat import unicode
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\twisted\python\compat.py", line 605, in <module>
from http import cookiejar as cookielib
File "C:\ProgramData\Anaconda3\envs\Test\Lib\site-packages\scrapy\http\__init__.py", line 8, in <module>
from scrapy.http.headers import Headers
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\scrapy\http\__init__.py", line 10, in <module>
from scrapy.http.request import Request
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\scrapy\http\request\__init__.py", line 8, in <module>
from w3lib.url import safe_url_string
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\w3lib\url.py", line 18, in <module>
from six.moves.urllib.request import pathname2url, url2pathname
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\six.py", line 92, in __get__
result = self._resolve()
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\six.py", line 160, in _resolve
module = _import_module(self.mod)
File "C:\ProgramData\Anaconda3\envs\Test\lib\site-packages\six.py", line 82, in _import_module
__import__(name)
File "C:\ProgramData\Anaconda3\envs\Test\lib\urllib\request.py", line 88, in <module>
import http.client
ModuleNotFoundError: No module named 'http.client'
Process finished with exit code 1
Кто-нибудь, как я могу это исправить? Кроме того, я также пытался настроить рабочий каталог на что-то другое, но я не знаю куда, я, конечно, попробовал каталог проекта.
На самом деле, я могу найти модуль, который, кажется, отсутствует (см. Ниже):