Я установил hadoop 3.1.1 на 3 виртуальных машинах с VMware на Ubuntu.Когда я запускаю hdfs namenode -format и start-all.sh, тогда jps работает правильно на моем главном и двух подчиненных узлах.
Тем не менее, с помощью команды hdfs dfsadmin -report я вижу только один живой узел данных (я получаю тот же результат, когда проверяю мастер: 50070 или8088).
Я попытался отключить брандмауэр следующим образом: ufw disable , но это не решило проблему.3 машины могут соединяться друг с другом (без пароля) с помощью ping и ssh .Я также удалил папку hadoop tmp с папками datanode и namenode, но она не сработала.Также в файлах журнала проблем не обнаружено .
Есть ли у вас какие-либо решения, чтобы получить три живых данных вместо одной ?Спасибо.
Это мои файлы конфигурации:
yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/datanode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/namenode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000/</value>
</property>
<property>
<name>fs.default.FS</name>
<value>hdfs://master:9000/</value>
</property>
</configuration>
работников
master
slave1
slave2