Вы предоставили следующий код.
spark = SparkSession.builder \
.master("local[2]") \
.appName("test") \
.config("spark.driver.memory", "9g")\ # This will work (Not recommended)
.getOrCreate()
sc = spark.sparkContext
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
Этот конфиг не должен быть установлен через SparkConf
напрямую
означает, что вы можете установить память драйвера, но это не рекомендуется на RUN TIME .Следовательно, если вы установите его с помощью spark.driver.memory
, он примет изменение и переопределит его.Но это не рекомендуется.Таким образом, этот конкретный комментарий ** этот конфиг не должен быть установлен через SparkConf напрямую **, не применяется в документации.Вы можете указать JVM создать себе экземпляр (JVM) с 9g
памяти драйвера, используя SparkConf
.
Теперь, если вы перейдете по этой строке ( Spark в порядке с этим )
Вместо этого, пожалуйста, установите это через --driver-memory, это означает, что
, когда вы пытаетесь отправить Spark
задание против client
Вы можете установить память драйвера, используя флаг --driver-memory
, скажем,
spark-submit --deploy-mode client --driver-memory 12G
Теперь строка заканчивается следующей фразой
или в файле свойств по умолчанию.
Вы можете указать SPARK
в вашей среде, чтобы он считывал настройки по умолчанию из SPARK_CONF_DIR
или $SPARK_HOME/conf
, где можно настроить driver-memory
. Spark также подойдет для этого.
Чтобы ответить на вторую часть
Если документ верный, есть ли способ проверить искру.driver.memory после конфига.Я пробовал spark.sparkContext._conf.getAll (), а также веб-интерфейс Spark, но, похоже, это приводит к неправильному ответу. "
Я хотел бы сказать, что документация верна. Вы можетепроверьте память драйвера, используя или, в конце концов, то, что вы указали для spark.sparkContext._conf.getAll()
, тоже работает.
>>> sc._conf.get('spark.driver.memory')
u'12g' # which is 12G for the driver I have used
Чтобы завершить документацию. Вы можете установить "spark.driver.memory" в
Для получения дополнительной информации см.
Файл свойств Spark по умолчанию