Я не могу настроить память исполнителя и драйвера.
from pyspark import SparkContext, SparkConf
from pyspark.sql import HiveContext
conf = pyspark.SparkConf().setAll([('spark.executor.memory', '2g'),('spark.driver.memory','2g')])
sc.stop()
sc = pyspark.SparkContext(conf=conf)
sc._conf.getAll()
hc = HiveContext(sc)
sc._conf.getAll()
Когда sc._conf.getAll()
запускается до hc = HiveContext(sc)
, я вижу, что мои воспоминания были скорректированы по мере необходимости. Однако, когда sc._conf.getAll()
запускается после hc = HiveContext(sc)
, память возвращается к значению по умолчанию.