Мы используем Hadoop 2.7.1, и я обнаружил, что ниже 2 параметра установлены в некотором существующем коде MapReduce,
mapreduce.job.running.reduce.limit=500
mapred.reduce.tasks=50
Кажется, что последний работает, так как в итоге создано 50 файлов part- *.
Кто-нибудь знает разницу между этими двумя параметрами, и что на самом деле произойдет, если люди укажут оба параметра? Спасибо.