Моя проблема была немного другой, я запускаю искру в spyder с окнами.
когда я использую
from pyspark.sql import SQLContext, SparkSession
У меня возникла проблема, и я перешел по поисковым ссылкам Google, но не смог ее решить.
Затем я изменил импорт на:
from pyspark.sql import SparkSession
from pyspark import SQLContext
и сообщение об ошибке исчезло.
Я работаю на Windows, anaconda3, python3.7, spyder. Надеюсь, это кому-нибудь пригодится.
Изменить:
Позже я обнаружил, что настоящая проблема заключается в следующем. Когда какая-либо конфигурация не работает должным образом, появляется то же исключение. Ранее я использовал 28 ГБ и 4 ГБ вместо 28 ГБ и 4 ГБ, и это вызвало все проблемы, которые у меня были.
from pyspark.sql import SparkSession
from pyspark import SQLContext
spark = SparkSession.builder \
.master('local') \
.appName('muthootSample1') \
.config('spark.executor.memory', '28g') \
.config('spark.driver.memory','4g')\
.config("spark.cores.max", "6") \
.getOrCreate()