Я заметил, что mapreduce.map.speculative
и mapreduce.reduce.speculative
по умолчанию установлены на true
(в mapred-default.xml
файле конфигурации)
Однако значение по умолчанию для spark.speculation
равно false
(в spark-defaults.conf
файле конфигурации)
Есть ли помехи между этими настройками?
Я считаю, что они являются чем-то другим, первое применяется, когда используется движок Hadoop map-Reduce, и второе применяется, когда мы используем Spark. То же самое, когда мы используем Spark на пряже?