Ошибка Pyspark: процесс шлюза Java завершился перед отправкой номера порта - PullRequest
8 голосов
/ 22 марта 2019

Я использую Pyspark для запуска некоторых команд в Jupyter Notebook, но выдает ошибку.Я пробовал решения, представленные в этой ссылке ( Pyspark: Исключение: процесс шлюза Java завершился до отправки драйверу его номера порта ), и я попытался выполнить приведенное здесь решение (например, Изменение пути к C: Java, Удаление из системы).Java SDK 10 и переустановка Java 8, но все равно выдает ту же ошибку.

Я попытался удалить и переустановить pyspark, и я попытался запустить из командной строки anaconda, но я получаю ту же ошибку.Python 3.7 и pyspark версия 2.4.0.

Если я использую этот код, я получаю эту ошибку. «Исключение: процесс шлюза Java завершился перед отправкой своего номера порта».

from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext() 
sqlContext = SQLContext(sc)
from pyspark.mllib.linalg import Vector, Vectors
from nltk.stem.wordnet import WordNetLemmatizer
from pyspark.ml.feature import RegexTokenizer, StopWordsRemover, Word2Vec

Но если я удаляю sparkcontext из этого кода, он будет работать нормально, но для моего решения мне понадобится контекст spark. Ниже код без контекста spark не выдаст никакой ошибки.

from pyspark import SparkContext
from pyspark.sql import SQLContext
from pyspark.mllib.linalg import Vector, Vectors
from nltk.stem.wordnet import WordNetLemmatizer
from pyspark.ml.feature import RegexTokenizer, StopWordsRemover, Word2Vec

Буду признателен, если смогу получить какую-либо помощьПонимаю это. Я использую 64-битную операционную систему Windows 10.

Вот полное изображение кода ошибки.

enter image description here

Ответы [ 3 ]

2 голосов
/ 28 марта 2019

Попробуйте

sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer

Работало для меня с использованием Linux. Это должно работать и для Windows

эта ссылка поможет вам, потому что вы являетесь пользователем Windows https://superuser.com/questions/947220/how-to-install-packages-apt-get-install-in-windows

1 голос
/ 24 марта 2019

Введите это в своем терминале bash, и оно будет исправлено:

export PYSPARK_SUBMIT_ARGS="--master local[2] pyspark-shell"

Все, что нужно сделать, это экспортировать pyspark-shell в переменную среды оболочки PYSPARK_SUBMIT_ARGS.

0 голосов
/ 31 марта 2019

Как вы установили спарк ?? Очевидно, у вас возникли проблемы с запуском Java-процесса, что означает эта ошибка.

Возможно, вы захотите установить Spark заново, используя инструкции к письму, где бы вы их ни нашли. Тем не менее, вы также можете использовать conda, (anaconda или miniconda ), и в этом случае установка pyspark также получит текущую версию Java для вас

conda install pyspark
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...