файл не принадлежит кусту и данные загрузки также не запускаются как куст - PullRequest
0 голосов
/ 20 февраля 2019

Я использую HDP3.1.И я Ambari для развертывания кластера hadoop и улья.Я хочу использовать только одного пользователя (hdfs) для запуска всех программ (таких как hadoop, hive, sqoop, yarn ...).Поэтому я изменяю всех пользователей на hdfs в заданном шаге ACCOUNTS при развертывании кластера hadoop в ambari.После развертывания я запускаю sqoop для импорта данных из mysql в hive.У меня есть следующая проблема.

19/02/20 18:44:13 INFO hive.HiveImport: ERROR : FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MoveTask. org.apache.hadoop.hive.ql.metadata.HiveException: Load Data failed for hdfs://datacenter1:8020/user/hdfs/person/part-m-00000 as the file is not owned by hive and load data is also not ran as hive
19/02/20 18:44:13 INFO hive.HiveImport: INFO  : Completed executing command(queryId=hdfs_20190220184412_d61d8591-04fc-41a7-b412-d64935ddd046); Time taken: 0.235 seconds
19/02/20 18:44:13 INFO hive.HiveImport: Error: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MoveTask. org.apache.hadoop.hive.ql.metadata.HiveException: Load Data failed for hdfs://datacenter1:8020/user/hdfs/person/part-m-00000 as the file is not owned by hive and load data is also not ran as hive (state=08S01,code=1)
19/02/20 18:44:13 INFO hive.HiveImport: Closing: 0: jdbc:hive2://datacenter2:2181,datacenter1:2181,datacenter3:2181/default;password=hdfs;serviceDiscoveryMode=zooKeeper;user=hdfs;zooKeeperNamespace=hiveserver2
19/02/20 18:44:13 ERROR tool.ImportTool: Import failed: java.io.IOException: Hive exited with status 2
    at org.apache.sqoop.hive.HiveImport.executeExternalHiveScript(HiveImport.java:299)
    at org.apache.sqoop.hive.HiveImport.importTable(HiveImport.java:234)
    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:558)
    at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:656)
    at org.apache.sqoop.Sqoop.run(Sqoop.java:150)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76)
    at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:186)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:240)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:249)
    at org.apache.sqoop.Sqoop.main(Sqoop.java:258)

Эта проблема произошла в шаге уменьшения.Я не знаю, зачем ему нужен улей.Кто-нибудь знает как это решить?

...