Apache Spark install Windows 10 "Нет модуля с именем 'pyspark.conf'" - PullRequest
0 голосов
/ 16 апреля 2020

Я пробовал многочисленные попытки установки Apache Spark на Windows 10 . Я получаю постоянную ошибку "Нет модуля с именем ' pyspark.conf '"

python версия "Python 3.7.7 " (он не имеет пакет pyspark установлен)

java версия " 1.8.0_241 "

Устанавливаю spark-2.4.5-bin -hadoop2.7 on Windows 10 . и из командной строки запустите pyspark и получите следующую ошибку

enter image description here

Я добавил следующее к Системные переменные по очереди, но ошибка сохраняется

SPARK_HOME D: \ spark \ spark-2.4.5-bin-hadoop2.7

HADOOP_HOME D: \ spark \ spark-2.4 .5-bin-hadoop2.7 # добавили winutils.exe в \ bin

D: \ spark \ spark-2.4.5-bin-hadoop2.7 \ bin

D: \ spark \ spark-2.4.5-bin-hadoop2.7 \ python \ lib

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...