Почему я получил ошибку при запуске команды "hdfs namenode -format" во время ошибки установки Hadoop в Windows10? - PullRequest
0 голосов
/ 19 октября 2019

Я набрал команду "hdfs namenode -format", чтобы установить namenode. Но я получил ошибку, как показано ниже.

2019-10-20 04:15:57,279 INFO util.GSet: Computing capacity for map NameNodeRetryCache
2019-10-20 04:15:57,280 INFO util.GSet: VM type       = 64-bit
2019-10-20 04:15:57,281 INFO util.GSet: 0.029999999329447746% max memory 889 MB = 273.1 KB
2019-10-20 04:15:57,282 INFO util.GSet: capacity      = 2^15 = 32768 entries
2019-10-20 04:15:57,372 INFO namenode.FSImage: Allocated new BlockPoolId: BP-638256157-172.17.18.209-1571516157358
2019-10-20 04:15:57,377 ERROR namenode.NameNode: Failed to start namenode.
java.lang.UnsupportedOperationException
        at java.nio.file.Files.setPosixFilePermissions(Files.java:2044)
        at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.clearDirectory(Storage.java:452)
        at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:591)
        at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:613)
        at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:188)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:1206)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1649)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1759)
2019-10-20 04:15:57,388 INFO util.ExitUtil: Exiting with status 1: java.lang.UnsupportedOperationException
2019-10-20 04:15:57,395 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at YXYstyle/172.17.18.209
************************************************************/

Я скачал hadoop-3.2.1 и winutils из https://github.com/cdarlint/winutils, чтобы просто переопределить каталог bin, как показано ниже. Это список каталога hadoop-3.2.1 / bin

Ниже приведена конфигурация core-site.xml.

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

hadoop-env.cmd(Кстати: я уже установил переменную окружения JAVA_HOME):

@rem The java implementation to use.  Required.
set JAVA_HOME=%JAVA_HOME%

@rem The jsvc implementation to use. Jsvc is required to run secure datanodes.
@rem set JSVC_HOME=%JSVC_HOME%

hdfs-site.xml:

<configuration>

    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/hadoop-3.2.1/data/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/hadoop-3.2.1/data/datanode</value>
    </property>
</configuration>

yarn-site.xml:

<configuration>

<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>1024</value>
    </property>
    <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>1</value>
    </property>

</configuration>

Я только попал в Hadoop и совершенно новый в этом. Может ли кто-нибудь помочь в этом? Заранее спасибо.

1 Ответ

0 голосов
/ 20 октября 2019

Кажется, это была ошибка в версии 3.2.1. Вы можете видеть, что это исправлено всего четыре дня назад. Это было хорошо в более ранних версиях. Я тестировал с 2.6.0, и он работает, но не с 3.2.1

https://issues.apache.org/jira/browse/HDFS-14890

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...