При получении плагина BoneCP не найдена ошибка, как показано ниже, при запуске задания зажигания в кластере - PullRequest
0 голосов
/ 29 мая 2018

Прикрепление полных журналов ниже.

Вот мои зависимости:

<dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-sql_2.10</artifactId>
        <version>1.6.0-${cloudera.version.id}</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-aws -->
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-aws</artifactId>
        <version>2.6.0-${cloudera.version.id}</version>
    </dependency>

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-assembly_2.10</artifactId>
        <version>1.6.0-${cloudera.version.id}</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/junit/junit -->
    <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>4.4</version>
    </dependency>
    <dependency>
        <groupId>org.apache.httpcomponents</groupId>
        <artifactId>httpclient</artifactId>
        <version>4.5.2</version>
        <scope>runtime</scope>
    </dependency>
    <dependency>
        <groupId>com.maxmind.geoip2</groupId>
        <artifactId>geoip2</artifactId>
        <version>2.5.0</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>spark-client</artifactId>
        <version>1.1.0-${cloudera.version.id}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-exec</artifactId>
        <version>1.1.0-${cloudera.version.id}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-cli</artifactId>
        <version>1.1.0-${cloudera.version.id}</version>
    </dependency>

java.lang.RuntimeException: Невозможно создать экземпляр org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient в org.apache.hadoop.hive.metastore.Java: 82) в org.apache.hadoop.hive.ql.metadata.Hive.createMetaStoreClient (Hive.java:3235) в org.apache.hadoop.hive.ql.metadata.Hive.getMSC (Hive.java:3254)в org.apache.hadoop.hive.ql.metadata.Hive.getAllFunctions (Hive.java:3479) в org.apache.hadoop.hive.ql.metadata.Hive.reloadFunctions (Hive.java:225) в org.apache.hadoop.hive.ql.metadata.Hive.registerAllFunctionsOnce (Hive.java:209) в org.apache.hadoop.hive.ql.metadata.Hive. (Hive.java:332) в org.apache.hadoop.hive.ql.metadata.Hive.get (Hive.java:293) в org.apache.hadoop.hive.ql.metadata.Hive.get (Hive.java:268) в org.apache.spark.sql.hive.client.ClientWrapper.client (ClientWrapper.scala: 272) в org.apache.spark.sql.hive.client.ClientWrapper $$ anonfun $ withHiveState$ 1.apply (ClientWrapper.scala: 288) в org.apache.spark.sql.hive.client.ClientWrapper.liftedTree1 $ 1 (ClientWrapper.scala: 239) в org.apache.spark.sql.hive.client.ClientWrapper.retryLocked(ClientWrapper.scala: 238) в org.apache.spark.sql.hive.client.ClientWrapper.withHiveState (ClientWrapper.scala: 281) в org.apache.spark.sql.hive.HiveQLDialect.parse (HiveContext.scala: 65) в org.apache.spark.sql.SQLContext $$ anonfun $ 2.apply (SQLContext.scala: 211) в org.apache.spark.sql.SQLContext $$ anonfun $ 2.apply (SQLContext.scala: 211) в орг.apache.spark.sql.execution.SparkSQLParser $$ anonfun $ org $ apache $ spark $ sql $ выполнение $ SparkSQLParser $$ others $ 1.apply (SparkSQLParser.scala: 114) в org.apache.spark.sql.execution.SparkSQLParser $$ anonfun $ org $ apache $ spark $ sql $ выполнение $ SparkSQLParser $$ others $ 1.apply (SparkSQLParser.scala: 113) на scala.util.parsing.combinator.Parsers $ Success.map (Parsers.scala: 136) на scala.util.parsing.combinator.Parsers $ Success.map (Parsers.scala: 135) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ map $ 1.apply (Parsers.scala: 242) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ map $ 1.apply (Parsers.scala: 242) на scala.util.parsing.combinator.Парсеры $$ anon $ 3.apply (Parsers.scala: 222) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1 $$ anonfun $ apply $ 2.apply (Parsers.scala: 254) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1 $$ anonfun $ apply $ 2.apply (Parsers.scala: 254) в scala.util.parsing.combinator.Parsers $ Failure.append (Parsers.scala: 202) в scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1.apply (Parsers.scala: 254) в scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1.apply (парсеры).scala: 254) на scala.util.parsing.combinator.Parsers $$ anon $ 3.apply (Parsers.scala: 222) на scala.util.parsing.combinator.Parsers $$ anon $ 2 $$ anonfun $ применить $ 14.apply(Parsers.scala: 891) на scala.util.parsing.combinator.Parsers $$ anon $ 2 $$ anonfun $ apply $ 14.apply (Parsers.scala: 891) на scala.util.DynamicVariable.withValue (DynamicVariable.scala: 57)в scala.util.parsing.combinator.Parsers $$ anon $ 2.apply (Parsers.scala: 890) в scala.util.parsing.combinator.PackratParsers $$ anon $ 1.apply (PackratParsers.scala: 110) в org.apache.spark.sql.catalyst.AbstractSparkSQLParser.parse (AbstractSparkSQLParser.scala: 34) в org.apache.spark.sql.SQLContext $$ anonfun $ 1.apply (SQLContext.scala: 208) в org.apache.spark.sonte$$ anonfun $ 1.apply (SQLContext.scala: 208) в org.apache.spark.sql.execution.datasources.DDLParser.parse (DDLParser.scala: 43) в org.apache.spark.sql.SQLContext.parseSql (SQon.scala: 231)в org.apache.spark.sql.hive.HiveContext.parseSql (HiveContext.scala: 333) в org.apache.spark.sql.SQLContext.sql (SQLContext.scala: 817) в com.ludia.analytics.extract.jazz.SessionEndExtract.main (SessionEndExtract.java:85) в sun.reflect.NativeMethodAccessorImpl.invoke0 (нативный метод) в sun.reflect.NativeMethodAccessorImpl.invoke (NativeMethodAccessorImpl.javadetho.Ampho.Impho.Impho.Impho.jpg: 43) в java.lang.reflect.Method.invoke (Method.java:497) в org.apache.spark.deploy.yarn.ApplicationMaster $$ anon $ 2.run (ApplicationMaster.scala: 553) Причина: java.lang.reflect.lang.reflect.Constructor.newInstance (Constructor.java:422) в org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance (MetaStoreUtils.java:1544) ... еще 49 Причин: javax.jdo.JDOFatalInternalException: Ошибка при создании фабрики транзакционных соединений NestedThrowables: java.lang.reflect.Invanat.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException (NucleusJDOHelper.java:587) при org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration (JDOPersistenceManagerFactory.java:788) в org.datanucleus.api.jdo.JDOPersistenceManagerFactory.createPersistenceManagerFactory (JDOPersistenceManagerFactory.java: 333) at or.sun.reflect.DelegatingMethodAccessorImpl.invoke (DelegatingMethodAccessorImpl.java:43) в java.lang.reflect.Method.invoke (Method.java: 497) в javax.jdo.JDOHelper $ 16.run (JDOHelper.java:1965) в java.security.AccessController.doPrivileged (собственный метод) в javax.jdo.JDOHelper.invoke (JDOHelper.java:1960) в javax.jdo.JDOHelper.invokeGetPersistenceManagerFactoryOnImplementation (JDOHelper.java:1166) в javax.jdo.JDOHelper.getPersistenceManagerFactory (JDOHelper.java:808) в javax.jdo.JDOHelj.jha.metastore.ObjectStore.getPMF (ObjectStore.java:411) в org.apache.hadoop.hive.metastore.ObjectStore.getPersistenceManager (ObjectStore.java:440) в org.apache.hadoop.hive.metastore.ObjectStore.initial (Object.java: 335) в org.apache.hadoop.hive.metastore.ObjectStore.setConf (ObjectStore.java:291) в org.apache.hadoop.util.ReflectionUtils.setConf (ReflectionUtils.java:73) в org.apache.hadoop.util.ReflectionUtils.newInstance (ReflectionUtils.java:133) в org.apache.hadoop.hive.metastore.RawStoreProxy. (RawStoreProxy.java:60) в org.apache.hadoop.hive.metastore.RawStoreProxy.getProxy (RawStoreProxy.java:69) в org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.newRawStore (HiveMetaStore.java:648) в org.apache.hadoop.hive.MetaSta $.getMS (HiveMetaStore.java:626) в org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.createDefaultDB (HiveMetaStore.java:679) в org.apache.hadoop.hive.metastore.HiveMestaHtoreStoreJava: 484) в org.apache.hadoop.hive.metastore.RetedingHMSHandler. (RetedingHMSHandler.java:78) в org.apache.hadoop.hive.metastore.RetaringHMSHandler.getProxy (RetringHMSHandler.java:84) в org.ap.hadoop.hive.metastore.HiveMetaStore.newRetringHMSHandler (HiveMetaStore.java:5999) в org.apache.hadoop.hive.metastore.HiveMetaStoreClient. (HiveMetaStoreClient.java:205)at org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient. (SessionHiveMetaStoreClient.java:74) ... еще 54 вызвано: java.lang.reflect.InvocationTargetException в sun.reflect.NativeConstructor0ewInstsun.reflect..plugin.NonManagedPluginRegistry.createExecutableExtension (NonManagedPluginRegistry.java:631) в org.datanucleus.plugin.PluginManager.createExecutableExtension (PluginManager.java:325) org.jpgdatanucleus.store.AbstractStoreManager. (AbstractStoreManager.java:240) в org.datanucleus.store.rdbms.RDBMSStoreManager. (RDBMSStoreManager.java:286) в sun.reflect.NativeConstructorAccessorImpl.newInstance0 (родной метод) в sun.reflect.NativeConstructorAccessorImpl.newInstance (NativeConstructorAccessorImpl.java:62) в sun.reflect.DelegatingConstructorAccessorImpl.newInstance.new.navlange.jpgjava: 422) at org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension (NonManagedPluginRegistry.java:631) в org.datanucleus.plugin.PluginManager.createExecutable.jj (1187.NucleusException: Попытка вызвать плагин "BONECP" для создания ConnectionPool вызвала ошибку: Плагин пула соединений типа "BONECP" не был найден в tон класпат!в org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources (ConnectionFactoryImpl.java:259) в org.datanucleus.store.rdbms.ConnectionFactoryImpl.initialiseDataSources (ConnectionFactoryImpl.Impat.j.base.jp.dll).ConnectionFactoryImpl.java:85) ... еще 101 Причина: org.datanucleus.exceptions.NucleusUserException: подключаемый модуль пула соединений типа "BONECP" не найден в CLASSPATH!at org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources (ConnectionFactoryImpl.java:234) ... еще 103 org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: невозможно создать экземпляр.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient 18/05/28 21:19:04 ОШИБКА ApplicationMaster: пользовательский класс выдал исключение: java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Невозможно создать экземпляр org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.gable.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient в com.ludia.analytics.extract.jazz.SessionEndExtract.main (SessionEndExtract.java:102) в sun.reflect.NativeMethodAccessorImpl.intive0.NativeMethodAccessorImpl.invoke (NativeMethodAccessorImpl.java:62) в sun.reflect.DelegatingMethodAccessorImpl.invoke (DelegatingMethodAccessorImpl.java:43) в java.lang.reflect.Method.invoke (Method.java:497) в org.apache.spark.deploy.yarn.ApplicationMaster $$ и $ 2.run (ApplicationMaster.scala:553) Вызвано: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Невозможно создать экземпляр org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientв org.apache.hadoop.hive.ql.metadata.Hive.registerAllFunctionsOnce (Hive.java:214) в org.apache.hadoop.hive.ql.metadata.Hive. (Hive.java:332) в org.apache.hadoop.hive.ql.metadata.Hive.get (Hive.java:293) в org.apache.hadoop.hive.ql.metadata.Hive.get (Hive.java:268) в org.apache.spark.sql.hive.client.ClientWrapper.client (ClientWrapper.scala: 272) в org.apache.spark.sql.hive.client.ClientWrapper $$ anonfun $ withHiveState $ 1.apply (ClientWrapper.scala: 288) в org.apache.spark.sql.hive.client.ClientWrapper.liftedTree1 $ 1 (ClientWrapper.scala: 239) в org.apache.spark.sql.hive.client.ClientWrapper.retryLocked (ClientWrapper.scala: 238) в org.apache.spark.sql.hive.client.ClientWrapper.withHiveState (ClientWrapper.scala: 281) в org.apache.spark.sql.hive.HiveQLDialect.parse (HiveContext.scala: 65) в org.apache.spark.sql.SQLContext $$ anonfun $ 2.apply(SQLContext.scala: 211) в org.apache.spark.sql.SQLContext $$ anonfun $ 2.apply (SQLContext.scala: 211) в org.apache.spark.sql.execution.SparkSQLParser $$ anonfun $ org $apache $ spark $ sql $ выполнение $ SparkSQLParser $$ others $ 1.apply (SparkSQLParser.scala: 114) в org.apache.spark.sql.execution.SparkSQLParser $$ anonfun $ org $ apache $ spark $ sql $ выполнение $ SparkSQLParser $$ others $ 1.apply (SparkSQLParser.scala: 113) на scala.util.parsing.combinator.Parsers $ Success.map (Parsers.scala: 136) на scala.util.parsing.combinator.Parsers $ Success.map (Парсеры.scala: 135) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ map $ 1.apply (Parsers.scala: 242) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ map $ 1.применить (Parsers.scala: 242) на scala.util.parsing.combinator.Parsers $$ anon $ 3.apply (Parsers.scala: 222) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1 $$ anonfun $ apply $ 2.apply (Parsers.scala: 254) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1 $$ anonfun $ apply $ 2.apply (Parsers.scala: 254) на scala.util.parsing.combinator.Parsers $ Failure.append (Parsers.scala: 202) на scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1.apply (Parsers.scala: 254) в scala.util.parsing.combinator.Parsers $ Parser $$ anonfun $ append $ 1.apply (Parsers.scala: 254) в scala.util.parsing.combinator.Parsers $$ anon $ 3.apply (Parsers.scala: 222) на scala.util.parsing.combinator.Parsers $$ anon $ 2 $$ anonfun $ apply $ 14.apply (Parsers.scala: 891) на scala.util.parsing.combinator.Parsers $$ anon $ 2 $$ anonfun $применить $ 14.apply (Parsers.scala: 891) на scala.util.DynamicVariable.withValue (DynamicVariable.scala: 57) на scala.util.parsing.combinator.Parsers $$ anon $ 2.apply (Parsers.scala: 890) наscala.util.parsing.combinator.PackratParsers $$ anon $ 1.apply (PackratParsers.scala: 110) в org.apache.spark.sql.catalyst.AbstractSparkSQLParser.parse (AbstractSparkSQLParser.scala: 34) в org.apache.spark.sql.SQLContext $$ anonfun $ 1.apply (SQLContext.scala: 208) в org.apache.spark.sql.SQLContext $$ anonfun $ 1.apply (SQLContext.scala: 208) в org.apache.spark.sql.execution.datasources.DDLParser.parse (DDLParser.scala: 43) в org.apache.spark.sql.SQLContext.parseSql (SQLContext.scala: 231) в org.apache.spark.sql.hive.HiveContext.parseSql (HiveContext.scala: 333) в org.apache.spark.sql.SQLContext.sql (SQLContext.scala: 817) в com.ludia.analytics.extract.jazz.SessionEndExtract.main (SessionEndExt:85) ... еще 5 причин: java.lang.RuntimeException: Невозможно создать экземпляр org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient в org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance (MetaStore: 1546) в org.apache.hadoop.hive.metastore.RetringMetaStoreClient. (RetriedMetaStoreClient.java:67) в org.apache.hadoop.hive.metastore.RetringMetaStoreClient.getProxy (RetringMetaStoreapache.j.gareh.jpg) at..hive.ql.metadata.Hive.createMetaStoreClient (Hive.java:3235) в org.apache.hadoop.hive.ql.metadata.Hive.getMSC (Hive.java:3254)в org.apache.hadoop.hive.ql.metadata.Hive.getAllFunctions (Hive.java:3479) в org.apache.hadoop.hive.ql.metadata.Hive.reloadFunctions (Hive.java:225) в org.apache.hadoop.hive.ql.metadata.Hive.registerAllFunctionsOnce (Hive.java:209) ... еще 42 Причина: java.lang.reflect.InvocationTargetException в sun.reflect.NativeConstructorAccessorImpl.newInstance0 (собственный метод) в.NativeConstructorAccessorImpl.newInstance (NativeConstructorAccessorImpl.java:62) в sun.reflect.DelegatingConstructorAccessorImpl.newInstance (DelegatingConstructorAccessorImpl.java:45) в java.lang.reflect.Constoop.hive.metastore.MetaStoreUtils.newInstance (MetaStoreUtils.java:1544) ... еще 49 Причин: javax.jdo.JDOFatalInternalException: Ошибка при создании фабрики транзакционных соединений NestedThrowables: java.lang.reflect.InvocationTargetExati.NucleusJDOHelper.getJDOExceptionForNucleusException (NucleusJDOHelper.java:587) atg.getPersistenceManagerFactory (JDOPersistenceManagerFactory.java:202) в sun.reflect.NativeMethodAccessorImpl.invoke0 (родной метод) в sun.reflect.NativeMethodAccessorImpl.invoke (NativeMethodAccessorImphoj.jpg).) в java.lang.reflect.Method.invoke (Method.java:497) в javax.jdo.JDOHelper $ 16.run (JDOHelper.java:1965) в java.security.AccessController.doPrivileged (собственный метод) в javax.jdo.JDOHelper.invoke (JDOHelper.java:1960) по адресу javax.jdo.JDOHelper.invokeGetPersistenceManagerFactoryOnImplementation (JDOHelper.java:1166) по адресу javax.jdo.JDOHelper.get.ers.ManagerFact.jjDOHelper.getPersistenceManagerFactory (JDOHelper.java:701) по адресу org.apache.hadoop.hive.metastore.ObjectStore.getPMF (ObjectStore.java:411) по адресу org.apache.hadoop.hive.metastore.ObjectStore.getavaSersManager440) в org.apache.hadoop.hive.metastore.ObjectStore.initialize (ObjectStore.java:335) в org.apache.hadoop.hive.metastore.ObjectStore.setConf (ObjectStore.java:291) в org.apache.hadoop.util.ReflectionUtils.setConf (ReflectionUtils.java:73) в org.apache.hadoop.util.ReflectionUtils.newInstance (ReflectionUtils.java:133) в org.apache.hadoop.hive.metastore.RawStoreProxy. (RawStoreProxy.java:60) в org.apache.hadoop.hive.metastore.RawStoreProxy.getProxy (RawStoreProxy.java:69) в org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.newRawStore (HiveMetaStore.java:6ache at или orgache.ache).hadoop.hive.metastore.HiveMetaStore $ HMSHandler.getMS (HiveMetaStore.java:626) в org.apache.hadoop.hive.metastore.HiveMetaStore $ HMSHandler.createDefaultDB (HiveMetaStore.java.9: 67).hadoop.hive.metastore.HiveMetaStore $ HMSHandler.init (HiveMetaStore.java:484) в org.apache.hadoop.hive.metastore.RetringHMSHandler. (RetiringHMSHandler.java:78) в org.apache.hadoopMSet.getProxy (RetriedHMSHandler.java:84) в org.apache.hadoop.hive.metastore.HiveMetaStore.newRetringHMSHandler (HiveMetaStore.java:5999) в org.apache.hadoop.hive.metastore.HiveMetaSlijlientClientClientClientat org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient. (SessionHiveMetaStoreClient.java:74) ... еще 54 вызвано: java.lang.reflect.InvocationTargetException в sun.reflect.NativeConstructor0ewInstsun.reflect.NativeConstructorAccessorImpl.newInstance (NativeConstructorAccessorImpl.java:62)по адресу sun.reflect.DelegatingConstructorAccessorImpl.newInstance (DelegatingConstructorAccessorImpl.java:45) по адресу java.lang.reflect.Constructor.newInstance (Constructor.java:422) по адресу org.datanucleus.plugin.NonMangeRetable.RegablePlayInGTorg.datanucleus.plugin.PluginManager.createExecutableExtension (PluginManager.java:325) в org.datanucleus.store.AbstractStoreManager.registerConnectionFactory (AbstractStoreManager.java:282) Abstract.Jervice.Aborg.datanucleus.store..newInstance (DelegatingConstructorAccessorImpl.java:45) в java.lang.reflect.Constructor.newInstance (Constructor.java:422) в org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension (NonManagedPluginRegistry.java:631) в org.datanucleus.plugin.PluginManager.createExecutableExtension (PluginManager.java:301) в orgususer(NucleusContext.java:356) at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration (JDOPersistenceManagerFactory.java:775) ... еще 83. Вызвано:При создании ConnectionPool выдана ошибка: плагин пула соединений типа "BONECP" не найден в CLASSPATH!в org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources (ConnectionFactoryImpl.java:259) в org.datanucleus.store.rdbms.ConnectionFactoryImpl.initialiseDataSources (ConnectionFactoryImpl.Impat.j.base.jp.dll).ConnectionFactoryImpl.java:85) ... еще 101 Причина: org.datanucleus.exceptions.NucleusUserException: подключаемый модуль пула соединений типа "BONECP" не найден в CLASSPATH!в org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources (ConnectionFactoryImpl.java:234) ... еще 103

1 Ответ

0 голосов
/ 29 мая 2018

Удалить все <groupId>org.apache.hive</groupId> зависимости

Добавить

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-hive_2.10</artifactId>
    <version>1.6.0-${cloudera.version.id}</version>
</dependency>
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...