Я хочу настроить свой искровой кластер на AWS EMR, и я не могу изменить значение по умолчанию spark.driver.memory
, которое приводит к сбою каждого искрового приложения, поскольку мой набор данных большой.
Я попытался отредактировать файл spark-defaults.conf
вручную на главном компьютере, а также попытался настроить его непосредственно с помощью файла JSON на панели мониторинга EMR при создании кластера.
Вот файл JSON, использованный:
[
{
"Classification": "spark-defaults",
"Properties": {
"spark.driver.memory": "7g",
"spark.driver.cores": "5",
"spark.executor.memory": "7g",
"spark.executor.cores": "5",
"spark.executor.instances": "11"
}
}
]
После использования файла JSON конфигурации корректно находятся в "spark-defaults.conf", но на панели мониторинга spark всегда есть значение по умолчанию для "spark.driver.memory", равное 1000M, в то время какдругие значения изменены правильно.Кто-нибудь попал в ту же проблему, пожалуйста?Заранее спасибо.