Команда Pyspark не найдена - PullRequest
0 голосов
/ 14 мая 2018

Я пытаюсь установить PySpark в Linux, но когда я следую нескольким руководствам, он все равно выдает ошибку, когда я пытаюсь запустить pyspark в терминале. Это все еще дает мне сообщение Error: Pyspark not found.

Вот что у меня есть:

в ~.bashrc внизу:

export SPARK_PATH=~/spark-2.3.0-bin-hadoop2.7

export $SPARK_PATH/bin/pyspark --master local[2]

А в ls

root@kali~ spark-2.3.0-bin-hadoop2.7

Python версия

Python 2.7.14+ (default, Dec  5 2017, 15:17:02) 
[GCC 7.2.0] on linux2

Java-версия

openjdk version "10.0.1" 2018-04-17
OpenJDK Runtime Environment (build 10.0.1+10-Debian-4)
OpenJDK 64-Bit Server VM (build 10.0.1+10-Debian-4, mixed mode)

Редактировать: Я пытался использовать source .bashrc, но выдает ошибку:

bash: export: `/root/spark-2.3.0-bin-hadoop2.7/bin/pyspark': not a valid identifier
bash: export: `--master': not a valid identifier
bash: export: `local[2]': not a valid identifier

Как я могу добавить это в коде, не получая ошибку?

Edit2: @Ramesh Maharjan решил проблему с .bashrc, однако я все еще получаю ошибку Java, если пытаюсь запустить Spark:

/usr/local/lib/python2.7/dist-packages/pyspark/bin/spark-class: line 71:
/usr/lib/jvm/java-8-oracle/bin/java: No such file or directory
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...