Вы можете добавить емкость для пакетного задания, если хотите, но это должно быть представлено как возможность в вашей кодовой базе.Например, если у вас есть маппер, который содержит набор входов, которые вы хотите назначить нескольким узлам, чтобы выдержать давление, которое вы можете.Все это можно сделать, но не с установкой Hadoop по умолчанию.
В настоящее время я работаю над структурой Nested Map-Reduce, которая расширяет кодовую базу Hadoop и позволяет создавать больше узлов на основе входных данных, которые получает преобразователь или преобразователь.Если вы заинтересованы, напишите мне, и я объясню больше.
Кроме того, когда дело доходит до опции -libjars
, это работает только для узлов, которые назначены JobTracker, как указано в задании, которое вы пишете.Поэтому, если вы укажете 10 картографов, -libjar скопирует ваш код туда.Если вы хотите начать с 10, но продолжить работу, добавленные узлы не будут иметь кода.
Самый простой способ обойти это - добавить свой jar в путь к классу сценария hadoop-env.sh
.Это всегда будет при запуске задания копировать этот jar на все узлы, которые кластер знает.