При установке кластера oop: ошибка соединения отклонена - PullRequest
0 голосов
/ 11 февраля 2020

Я установил oop 2.8.5 и завершил настройку / настройку. Я пытаюсь получить доступ к HDFS и создать каталоги верхней части DFS с помощью Cli. Я получаю сообщение об ошибке: localhost: сбой 9000 при исключении соединения: java. net .ConnectException.

Вот мой основной сайт. xml:

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://0.0.0.0:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadooptmpdata</value>
</property>

Вот hdfs-сайт. xml

<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>/home/hadoop/hdfs/namenode</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>/home/hadoop/hdfs/datanode</value>
</property>

Здесь приведена карта. xml

<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

Вот сайт пряжи. xml

<configuration>


<property>
    <name>mapreduceyarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

Вывод с командой jps не показывает namenode и datanode

Спасибо.

1 Ответ

0 голосов
/ 13 февраля 2020

fs.defaultFS должен быть внешним IP-адресом хоста или именем хоста namenode, а не 0.0.0.0

Похоже, что вы не запустили скрипт start-dfs после форматирования namenode, затем наблюдали журналы ошибок запуска

Для начала вам не нужны датододы. Сосредоточьтесь на том, чтобы просто получить здоровый наменоде.

Также рассмотрите возможность использования Apache Ambari вместо ручной установки

...