Я выполняю задание pyspark в кластере AWS EMR, подробности о кластере приведены ниже.один главный экземпляр (m5.2xlarge) пять ведомых экземпляров (m5.2xlarge-8 vCore, память 32 ГиБ, только хранилище EBS Хранилище EBS: 200 ГиБ).
после того, как я отправил задание pyspark, происходит сбойс ошибкой ниже.
ExecutorLostFailure (executor 1 exited caused by one of the running tasks) Reason: Container killed by YARN for exceeding memory limits. 24.1 GB of 24 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.
ниже приведена команда spark submit.
spark-submit --deploy-mode cluster --master yarn --num-executors 2 --executor-cores 5 --executor-memory 21g --driver-memory 10g --conf spark.yarn.executor.memoryOverhead=3g --conf spark.yarn.submit.waitAppCompletion=false --conf spark.yarn.maxAppAttempts=100 --conf spark.executor.extraJavaOptions=-Xss3m --conf spark.driver.maxResultSize=3g --conf spark.dynamicAllocation.enabled=false
укажите лучший параметр для ни одного из исполнителей, памяти исполнителя и никаких ядер.