Я создаю сеанс Spark (работает на Apache Spark версии 2.4.3) из записной книжки Jupiter следующим образом
spark_session = SparkSession.builder
.master("yarn-client")
.enableHiveSupport()
.getOrCreate()
spark_session.conf.set("spark.executor.memory", '8g')
spark_session.conf.set('spark.executor.cores', '3')
spark_session.conf.set('spark.cores.max', '3')
spark_session.conf.set("spark.driver.memory",'8g')
sc = spark_session.sparkContext
В мастере приложения видно, что все параметры установлены правильно ожидаем, что искра. spark.driver.memory независимо от того, что я установил для него, используя только 1 ГБ.
Я проверил spark-default.conf, но у меня нет таких параметров, как для spark.driver.memory. Чтобы проверить, работает ли он с помощью построителя сеансов / Jupiter, я запустил приложение, используя spark-submit из командной строки, и, к моему удивлению, он выбирает память драйвера, которую я передаю.
Может кто-нибудь, пожалуйста, пролил немного света на это? Что может быть причиной того, что он не выбирает только память spark.driver.memory из jupyter