Я работаю в проекте Spark с использованием дистрибутива MapR, в котором включено динамическое распределение.Пожалуйста, обратитесь к нижеуказанным параметрам:
spark.dynamicAllocation.enabled true
spark.shuffle.service.enabled true
spark.dynamicAllocation.minExecutors 0
spark.dynamicAllocation.maxExecutors 20
spark.executor.instances 2
Согласно моему пониманию, spark.executor.instances - это то, что мы определяем как --num-executors при отправке нашей работы pySpark.
У меня есть следующие 2 вопроса:
, если я использую --num-executors 5
во время подачи работы, будет ли он перезаписывать spark.executor.instances 2
параметр конфигурации?
Какова цель определения spark.executor.instances
, когда динамическое распределение минимального и максимального исполнителей уже определено?