Я использую Spark версии 2.3.3 и пытаюсь вызвать pyspark
из моей командной строки, что приводит к следующей ошибке:
c: \ spark> pyspark 'pyspark' не распознанкак внутренняя или внешняя команда, работающая программа или командный файл.
Я проверил свои переменные окружения, чтобы убедиться, что на путь к SPARK_HOME
есть ссылки и т. д. (см. прикрепленные изображения) Кто-нибудь сталкивался с этой проблемой раньше?Любые подсказки относительно того, что может быть проблемой, будут высоко оценены.