Я использую кластер EMR из 1 главного и 11 основных узлов m5.2x. После выполнения некоторых связанных вычислений с этим типом узла, следующий json, чтобы установить конфигурацию моего приложения Spark на EMR:
[
{
"Classification": "capacity-scheduler",
"Properties": {
"yarn.scheduler.capacity.resource-calculator":"org.apache.hadoop.yarn.util.resource.DominantResourceCalculator"
}
},
{
"Classification": "yarn-site",
"Properties": {
"yarn.nodemanager.vmem-check-enabled":"false",
"yarn.nodemanager.pmem-check-enabled":"false"
}
},
{
"Classification": "spark-defaults",
"Properties": {
"spark.dynamicAllocation.enabled":"false",
"spark.worker.instances":"5",
"spark.driver.memory":"20g",
"spark.executor.memory":"20g",
"spark.executor.cores":"5",
"spark.driver.cores":"5",
"spark.executor.instances":"14",
"spark.yarn.executor.memoryOverhead":"4g",
"spark.default.parallelism":"140"
}
},
{
"classification": "spark",
"properties": {
"maximizeResourceAllocation":"false"
}
}
]
Однако работающие контейнеры этого кластера не такие, как я ожидал (обычно такое же количество работающих ядер). Всего есть 11 работающих коннекторов, как я могу увеличить это число до 51 как количество используемых Vcores?