У меня ранее был установлен PySpark в виде пакета Python, который я установил через pip, недавно я удалил его с чистой версией Python и скачал автономную версию.
В моих пользовательских переменных я создал путь с именем:SPARK_HOME
со значением: C: \ spark-2.3.2-bin-hadoop2.7 \ bin
В системных переменных в пути я сделал запись: C: \ spark-2.3.2-bin-hadoop2.7 \ bin
Когда я запускаю pyspark
, я также не могу запустить spark-shell.Есть идеи?