Когда я пытаюсь запустить createOrReplaceTempView на кадре данных искры, я получаю неспособность обнаружить Unable, чтобы найти банки ульев для подключения к metastore.
Py4JJavaError: Произошла ошибка при вызове o25. sql. : java .lang.IllegalArgumentException: Невозможно найти банки ульев для подключения к metastore. Пожалуйста, установите spark. sql .hive.metastore.jars. в орг. apache .spark. sql .hive.HiveUtils $ .newClientForMetadata (HiveUtils. scala: 324) в орг. apache .spark. sql .hive.HiveUtils $ .newClientForMetadata (HiveUtil. scala: 286) в орг. apache .spark. sql .hive.HiveExternalCatalog.client $ lzycompute (HiveExternalCatalog. scala: 66) в орг. apache .spark. sql .hive. HiveExternalCatalog.client (HiveExternalCatalog. scala: 65) в орг. apache .spark. sql .hive.HiveExternalCatalog $$ anonfun $ databaseExists $ 1.apply $ mcZ $ sp (HiveExternalCatalog. scala: 215) по адресу org. apache .spark. sql .hive.HiveExternalCatalog $$ anonfun $ databaseExists $ 1.apply (HiveExternalCatalog. scala: 215) в org. apache .spark. sql .hive.HiveExternalCatalog $$ anonfun $ databaseExists $ 1.apply (HiveExternalCatalog. scala: 215) в орг. apache .spark. sql .hive.HiveExternalCatalog.withClient (HiveExternalCatalog. scala: 97) в орг. apache .spark . sql .hive.HiveExternalCatalog.databaseExists (HiveExternalCatalog. scala: 214) в орг. apache .spark. sql .internal.SharedState.externalCatalog $ lzycompute (SharedState. * 1 041 *: 114) в орг. apache .spark. sql .internal.SharedState.externalCatalog (SharedState. scala: 102) в орг. apache .spark. sql .internal.SharedState.globalTempViewManager $ lzycompute (SharedState. scala: 141) в орг. apache .spark. sql .internal.SharedState.globalTempViewManager (SharedState. scala: 136) в орг. apache .spark. sql .hive.HiveSessionStateBuilder $$ anonfun $ 2.apply (HiveSessionStateBuilder. scala: 55) в org. apache .spark. sql .hive.HiveSessionStateBuilder $$ anonfun $ 2.apply (HiveSessionStateBuilder: 10). в орг. apache .spark. sql .catalyst.catalog.SessionCatalog.globalTempViewManager $ lzycompute (SessionCatalog. scala: 91) в орг. apache .spark. sql .catalyst.catalog.SessionCatalog. globalTempViewManager (SessionCatalog. scala: 91) в орг. apache .spark. sql .catalyst.catalog.SessionCatalog.lookupRelation (SessionCatalog. scala: 701) в орг. apache .spark. sql .catalyst.analysis.Analyzer $ ResolveRelations $ .org $ апаш $ искрового $ $ SQL катализатор $ анализ $ Анализатор $ ResolveRelations $$ lookupTableFromCatalog ( Анализатор. scala: 728)
Мои переменные env установлены следующим образом.
export SPARK_HOME=/usr/local/Cellar/apache-spark/2.4.5_1/libexec
export PATH="/usr/local/opt/openjdk/bin:$PATH"
export PYSPARK_PYTHON=/usr/local/bin/python3
export PATH="/usr/local/opt/openjdk/bin:$PATH"
export JAVA_HOME=/Library/Java/JavaVirtualMachines/adoptopenjdk-13.0.2.jdk/Contents/Home
export HIVE_HOME=usr/local/Cellar/hive/3.1.2
Что такое банки метастазов улья, где они должны жить, как мне их сделать так что искра может их найти? Нужна ли другая версия Java?