«PythonAccumulatorV2 не существует» - при запуске SparkContext () в блокноте Jupyter - PullRequest
0 голосов
/ 22 ноября 2018

Я недавно установил Spark 2.3 на свой компьютер с Windows (с Java 8) и смог запустить его через Jupyter Notebooks (Python 3).

Внезапно он перестал работать - я получаю ошибку ниже, когда пытаюсь создать экземплярSparkContext в Notebook:

from pyspark import SparkContext
sc = pyspark.SparkContext()

Разделение кода по принципу «одна строка на ячейку» показывает, что это 2-я строка, вызывающая его.

Кажется, это чисто проблема Notebook, так какЯ все еще могу выполнить .py файлы с помощью «spark-submit» через командную строку.

Есть идеи, как это исправить?

-------------------------------------------------
Py4JError                                 Traceback (most recent call last)
<ipython-input-78-57590c71cf44> in <module>()
      1 from pyspark import SparkContext
----> 2 sc = pyspark.SparkContext()

~\Anaconda3\lib\site-packages\pyspark\context.py in __init__(self, master, appName, sparkHome, pyFiles, environment, batchSize, serializer, conf, gateway, jsc, profiler_cls)
    116         try:
    117             self._do_init(master, appName, sparkHome, pyFiles, environment, batchSize, serializer,
--> 118                           conf, jsc, profiler_cls)
    119         except:
    120             # If an error occurs, clean up in order to allow future SparkContext creation:

~\Anaconda3\lib\site-packages\pyspark\context.py in _do_init(self, master, appName, sparkHome, pyFiles, environment, batchSize, serializer, conf, jsc, profiler_cls)
    186         self._accumulatorServer = accumulators._start_update_server()
    187         (host, port) = self._accumulatorServer.server_address
--> 188         self._javaAccumulator = self._jvm.PythonAccumulatorV2(host, port)
    189         self._jsc.sc().register(self._javaAccumulator)
    190 

~\Anaconda3\lib\site-packages\py4j\java_gateway.py in __call__(self, *args)
   1523         answer = self._gateway_client.send_command(command)
   1524         return_value = get_return_value(
-> 1525             answer, self._gateway_client, None, self._fqn)
   1526 
   1527         for temp_arg in temp_args:

~\Anaconda3\lib\site-packages\py4j\protocol.py in get_return_value(answer, gateway_client, target_id, name)
    330                 raise Py4JError(
    331                     "An error occurred while calling {0}{1}{2}. Trace:\n{3}\n".
--> 332                     format(target_id, ".", name, value))
    333         else:
    334             raise Py4JError(

Py4JError: An error occurred while calling None.org.apache.spark.api.python.PythonAccumulatorV2. Trace:
py4j.Py4JException: Constructor org.apache.spark.api.python.PythonAccumulatorV2([class java.lang.String, class java.lang.Integer]) does not exist
    at py4j.reflection.ReflectionEngine.getConstructor(ReflectionEngine.java:179)
    at py4j.reflection.ReflectionEngine.getConstructor(ReflectionEngine.java:196)
    at py4j.Gateway.invoke(Gateway.java:237)
    at py4j.commands.ConstructorCommand.invokeConstructor(ConstructorCommand.java:80)
    at py4j.commands.ConstructorCommand.execute(ConstructorCommand.java:69)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Unknown Source)

Ответы [ 2 ]

0 голосов
/ 21 мая 2019

Попробуйте выполнить следующие действия.

1.pip install findspark

pip install pyspark

2.добавьте следующие строки в начало вашего файла xxx.py:

import findspark

findspark.init ()

3.python xxx.py

0 голосов
/ 29 ноября 2018

У меня была такая же проблема, я решил ее, обновив pyspark до последней версии.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...