ИСПРАВЛЕНИЕ:
Чтобы исправить эту проблему, я отредактировал bash_profile, чтобы обеспечить использование java 1.8 в качестве глобального значения по умолчанию следующим образом:
touch ~/.bash_profile; open ~/.bash_profile
Добавление
export JAVA_HOME=$(/usr/libexec/java_home -v 1.8)
и сохранение в текстовом редакторе.
ВОПРОС:
Я пытаюсь установить Spark на мой Mac.Я использовал home-brew для установки spark 2.4.0 и Scala.Я установил PySpark в своей среде анаконды и использую PyCharm для разработки.Я экспортировал в свой профиль bash:
export SPARK_VERSION=`ls /usr/local/Cellar/apache-spark/ | sort | tail -1`
export SPARK_HOME="/usr/local/Cellar/apache-spark/$SPARK_VERSION/libexec"
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH
Однако я не могу заставить его работать.
Я подозреваю, что это связано с чтением трассировки в Java-версии.Я был бы очень признателен за помощь в устранении проблемы.Пожалуйста, прокомментируйте, если есть какая-либо информация, которую я мог бы предоставить, которая может быть полезна за пределами трассировки.
Я получаю следующую ошибку:
Traceback (most recent call last):
File "<input>", line 4, in <module>
File "/anaconda3/envs/coda/lib/python3.6/site-packages/pyspark/rdd.py", line 816, in collect
sock_info = self.ctx._jvm.PythonRDD.collectAndServe(self._jrdd.rdd())
File "/anaconda3/envs/coda/lib/python3.6/site-packages/py4j/java_gateway.py", line 1257, in __call__
answer, self.gateway_client, self.target_id, self.name)
File "/anaconda3/envs/coda/lib/python3.6/site-packages/py4j/protocol.py", line 328, in get_return_value
format(target_id, ".", name), value)
py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: java.lang.IllegalArgumentException: Unsupported class file major version 55