Проблема, с которой я столкнулся, заключается в том, что при запуске bin/hadoop fs -ls
он распечатывает все файлы локального каталога, в котором я нахожусь, а не файлы в формате hdf (которых в настоящее время не должно быть).Вот как я все настроил:
Я скачал и распаковал все файлы 0.20.2 в /home/micah/hadoop-install/
.Я отредактировал conf/hdfs-site.xml
со следующими настройками и создал соответствующие каталоги:
<configuration>
<property>
<name>fs.default.name</name>
<value>localhost:9000</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/micah/hdfs/data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/micah/hdfs/name</value>
</property>
</configuration>
Затем я запустил bin/hadoop namenode -format
, а затем bin/start-dfs.sh
.