Ключевой частью этого связанного ответа является вы должны поддерживать разные конфигурации для каждого экземпляра датодета
Вы не можете поместить две секции <name>
и <value>
как часть тот же XML-файл
Вам необходимо иметь два отдельных конфигурационных файла, по одному на каждую датододу.
Однако я не совсем уверен, что возможно иметь две HADOOP_CONF_DIR
переменные для уникальныхHadoop процессы.Возможно, есть способ сделать hadoop --config /some/path datanode
, но start-dfs
просто скрывает этот способ, чтобы убрать от вас датодану
При этом, если у вас есть export HADOOP_CONF_DIR=/etc/hadoop
и ls $HADOOP_CONF_DIR/hdfs-site.xml
работает,тогда вы можете попробовать следующее в своем собственном терминале
mkdir /etc/hadoop2
cp /etc/hadoop/* /etc/hadoop2/
# EDIT the new hdfs-site.xml file
hadoop --config /etc/hadoop2 datanode
Я бы порекомендовал просто использовать две отдельные виртуальные машины, потому что это будет более точно соответствовать реальному сценарию