Java многопоточное приложение - периодически возникает исключение «Плохой дескриптор файла» в Hive - PullRequest
1 голос
/ 18 июня 2020

Я знаю, что этот вопрос задавался ранее, но я все еще не получил решения после прочтения их сообщений, поэтому я решаю снова опубликовать этот вопрос отсюда.

Я работаю над Java многопоточное приложение, в котором я пытаюсь выполнять запросы HQL с использованием JDB C в среде Hive. У меня есть куча запросов hive- sql, и я выполняю их в Hive параллельно с несколькими потоками, и я получаю следующее исключение, когда количество запросов больше (например, если я выполняю более 100 запросов). может кто-нибудь, пожалуйста, проверьте это и помогите мне в этом?

2020-06-16 06:00:45,314 ERROR [main]: Terminal exception
java.lang.Exception: Map step agg_cas_auth_reinstate_derive failed.
    at com.mine.idn.magellan.ParallelExecGraph.execute(ParallelExecGraph.java:198)
    at com.mine.idn.magellan.WarehouseSession.executeMap(WarehouseSession.java:332)
    at com.mine.idn.magellan.StandAloneEnv.execute(StandAloneEnv.java:872)
    at com.mine.idn.magellan.StandAloneEnv.execute(StandAloneEnv.java:778)
    at com.mine.idn.magellan.StandAloneEnv.executeAndExit(StandAloneEnv.java:642)
    at com.mine.idn.magellan.StandAloneEnv.main(StandAloneEnv.java:77)
Caused by: java.sql.SQLException: org.apache.hive.service.cli.HiveSQLException: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask. java.io.IOException: Bad file descriptor
    at org.apache.hive.service.cli.operation.Operation.toSQLException(Operation.java:380)
    at org.apache.hive.service.cli.operation.SQLOperation.runQuery(SQLOperation.java:257)
    at org.apache.hive.service.cli.operation.SQLOperation.access$800(SQLOperation.java:91)
    at org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork$1.run(SQLOperation.java:348)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1669)
    at org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork.run(SQLOperation.java:362)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.RuntimeException: java.io.IOException: Bad file descriptor
    at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2850)
    at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2685)
    at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2591)
    at org.apache.hadoop.conf.Configuration.get(Configuration.java:1077)
    at org.apache.hadoop.mapred.JobConf.checkAndWarnDeprecation(JobConf.java:2007)
    at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:479)
    at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:469)
    at org.apache.hadoop.mapreduce.Cluster.getJob(Cluster.java:190)
    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:601)
    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:599)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1669)
    at org.apache.hadoop.mapred.JobClient.getJobUsingCluster(JobClient.java:599)
    at org.apache.hadoop.mapred.JobClient.getJobInner(JobClient.java:609)
    at org.apache.hadoop.mapred.JobClient.getJob(JobClient.java:639)
    at org.apache.hadoop.hive.ql.exec.mr.HadoopJobExecHelper.progress(HadoopJobExecHelper.java:295)
    at org.apache.hadoop.hive.ql.exec.mr.HadoopJobExecHelper.progress(HadoopJobExecHelper.java:559)
    at org.apache.hadoop.hive.ql.exec.mr.ExecDriver.execute(ExecDriver.java:425)
    at org.apache.hadoop.hive.ql.exec.mr.MapRedTask.execute(MapRedTask.java:151)
    at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:201)
    at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:100)
    at org.apache.hadoop.hive.ql.exec.TaskRunner.run(TaskRunner.java:79)
Caused by: java.io.IOException: Bad file descriptor
    at java.io.FileInputStream.close0(Native Method)
    at java.io.FileInputStream.access$000(FileInputStream.java:49)
    at java.io.FileInputStream$1.close(FileInputStream.java:336)
    at java.io.FileDescriptor.closeAll(FileDescriptor.java:212)
    at java.io.FileInputStream.close(FileInputStream.java:334)
    at java.io.BufferedInputStream.close(BufferedInputStream.java:483)
    at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2676)
    at org.apache.hadoop.conf.Configuration.parse(Configuration.java:2661)
    at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2741)
    ... 22 more

    at org.apache.hive.jdbc.HiveStatement.waitForOperationToComplete(HiveStatement.java:385)
    at org.apache.hive.jdbc.HiveStatement.execute(HiveStatement.java:254)
    at com.mine.idn.magellan.WarehouseSession.executeMapStep(WarehouseSession.java:797)
    at com.mine.idn.magellan.WarehouseSession.access$000(WarehouseSession.java:23)
    at com.mine.idn.magellan.WarehouseSession$ParallelExecResources.executeMapStep(WarehouseSession.java:91)
    at com.mine.idn.magellan.ParallelExecGraph$Node.run(ParallelExecGraph.java:85)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    at java.lang.Thread.run(Thread.java:748)

Я не понимаю, почему было выбрано oop framework - Bad File Descriptor Exception? Мой код Java вызывает код Had oop -Hive и генерирует это исключение.

Еще одна вещь: эта проблема временная и непостоянная. Если я повторно запустил то же приложение, в большинстве случаев оно прошло.

Спасибо за

...