Я пробовал многочисленные попытки установки Apache Spark на Windows 10 . Я получаю постоянную ошибку "Нет модуля с именем ' pyspark.conf '"
python версия "Python 3.7.7 " (он не имеет пакет pyspark установлен)
java версия " 1.8.0_241 "
Устанавливаю spark-2.4.5-bin -hadoop2.7 on Windows 10 . и из командной строки запустите pyspark и получите следующую ошибку
Я добавил следующее к Системные переменные по очереди, но ошибка сохраняется
SPARK_HOME D: \ spark \ spark-2.4.5-bin-hadoop2.7
HADOOP_HOME D: \ spark \ spark-2.4 .5-bin-hadoop2.7 # добавили winutils.exe в \ bin
D: \ spark \ spark-2.4.5-bin-hadoop2.7 \ bin
D: \ spark \ spark-2.4.5-bin-hadoop2.7 \ python \ lib