Восстановление таблиц повреждено, когда объем hdfs был на 100% - PullRequest
1 голос
/ 08 апреля 2019

Я использую версию hadoop Hadoop 2.7.0-mapr-1506 . Когда объем данных равен 100%, наши задания все еще пытались вставить перезаписанные данные в несколько таблиц улья, и они повреждены, и при обращении к ним выдается следующее исключение:

at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:205)  
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:119)  
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)  
Caused by: org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: maprfs:/hive/bigdata.db/cadfp_wmt_table  
at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:289)  
at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229)  
at org.apache.hadoop.mapred.SequenceFileInputFormat.listStatus(SequenceFileInputFormat.java:45)  

Теперь мы освободили место в томе данных и хотим восстановить данные в таблицах ниже, как мы можем этого достичь

hadoop fs -ls /hive/bigdata.db/ | grep tmp~  
drwxr-xr-x   - bigdata bigdata         16 2019-04-05 07:38 /hive/bigdata.db/pc_bt_clean_table.tmp~!@  
drwxr-xr-x   - bigdata bigdata        209 2019-04-05 07:51 /hive/bigdata.db/pc_bt_table.tmp~!@  
drwxr-xr-x   - bigdata bigdata       1081 2019-04-05 07:38 /hive/bigdata.db/cadfp_wmt_table.tmp~!@ 

Упомянутые здесь шаги, упомянутые здесь Как исправить поврежденные файлы HDFS , но команда hdfs у меня не работает

...