Я пытаюсь ускорить оптимизацию задания MapReduce.
Можно ли как-то сказать hadoop использовать определенное количество процессов картографирования / редуктора?Или, по крайней мере, минимальное количество процессов сопоставления?
В документации указано, что вы можете сделать это с помощью метода
public void setNumMapTasks(int n)
класса JobConf.
Этот способ не устарел, поэтому я начинаю класс «Работа с работой».Как правильно это сделать?