Невозможно настроить кирпичи данных с внешним хранилищем метастазов - PullRequest
0 голосов
/ 24 марта 2020

Я следую этому документу https://docs.databricks.com/data/metastores/external-hive-metastore.html#spark -configuration-options , чтобы подключиться к моему внешнему хранилищу метаданных улья. Моя версия метастаза - 3.1.0, и я следовал за этим документом.

docs.databricks.comdocs.databricks.com Внешний Apache Метастов Hive - Документация по базам данных Узнайте, как подключиться к внешним Apache Метасторам Hive в Databricks. 10:51 Я получаю эту ошибку при попытке подключиться к внешнему метастагу улья

org/apache/hadoop/hive/conf/HiveConf when creating Hive client using classpath: 
Please make sure that jars for your version of hive and hadoop are included in the paths passed to spark.sql.hive.metastore.jars

spark. sql .hive.metastore.jars = / databricks / hive_metastore_jars / *

Когда Я делаю ls на / databricks / hive_metastore_jars /, я вижу все скопированные файлы 10:52 Нужно ли мне копировать какие-либо файлы hive Speci c и загружать его в эту папку?

Я сделал именно то, что было упоминается на сайте

Это содержимое моего hive_metastore_jars

total 56K
drwxr-xr-x 3 root root 4.0K Mar 24 05:06 1585025573715-0
drwxr-xr-x 2 root root 4.0K Mar 24 05:06 d596a6ec-e105-4a6e-af95-df3feffc263d_resources
drwxr-xr-x 3 root root 4.0K Mar 24 05:06 repl
drwxr-xr-x 2 root root 4.0K Mar 24 05:06 spark-2959157d-2018-441a-a7d3-d7cecb8a645f
drwxr-xr-x 4 root root 4.0K Mar 24 05:06 root
drwxr-xr-x 2 root root 4.0K Mar 24 05:06 spark-30a72ee5-304c-432b-9c13-0439511fb0cd
drwxr-xr-x 2 root root 4.0K Mar 24 05:06 spark-a19d167b-d571-4e58-a961-d7f6ced3d52f
-rwxr-xr-x 1 root root 5.5K Mar 24 05:06 _CleanRShell.r3763856699176668909resource.r
-rwxr-xr-x 1 root root 9.7K Mar 24 05:06 _dbutils.r9057087446822479911resource.r
-rwxr-xr-x 1 root root  301 Mar 24 05:06 _rServeScript.r1949348184439973964resource.r
-rwxr-xr-x 1 root root 1.5K Mar 24 05:06 _startR.sh5660449951005543051resource.r

Я что-то упустил?

Странно Если я загляну в журналы загрузки кластера, вот что я get

20/03/24 07:29:05 INFO Persistence: Property spark.hadoop.javax.jdo.option.ConnectionDriverName unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property spark.hadoop.javax.jdo.option.ConnectionURL unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property spark.hadoop.javax.jdo.option.ConnectionUserName unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property hive.metastore.integral.jdo.pushdown unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property spark.hadoop.javax.jdo.option.ConnectionPassword unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property datanucleus.cache.level2 unknown - will be ignored
20/03/24 07:29:05 INFO Persistence: Property datanucleus.schema.autoCreateAll unknown - will be ignored

20/03/24 07:29:09 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
20/03/24 07:29:09 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException

Я уже установил вышеупомянутые конфигурации, и это также отображается в журналах

20/03/24 07:28:59 INFO SparkContext: Spark configuration:
spark.hadoop.javax.jdo.option.ConnectionDriverName=org.mariadb.jdbc.Driver
spark.hadoop.javax.jdo.option.ConnectionPassword=*********(redacted)
spark.hadoop.javax.jdo.option.ConnectionURL=*********(redacted)
spark.hadoop.javax.jdo.option.ConnectionUserName=*********(redacted)

Кроме того, информация о версии доступна в моем хранилище метастаев, я могу подключиться к mysql и посмотрите, это показывает SCHEMA_VERSION: 3.1.0 VER_ID = 1

Ответы [ 2 ]

0 голосов
/ 25 марта 2020

Поскольку я использую azure mysql, мне нужно выполнить еще один шаг https://docs.microsoft.com/en-us/azure/databricks/data/metastores/external-hive-metastore

0 голосов
/ 24 марта 2020

Судя по выводу, файлы не копируются в папку "/ databricks / hive_metastore_jars /". Как упомянуто в ссылке на документацию, которой вы поделились:

  1. Установите искру. sql .hive.metastore.jars установлен в maven
  2. Перезапустите кластер с вышеуказанной конфигурацией и затем войдите в систему. драйвер Spark регистрирует сообщение:
17/11/18 22:41:19 INFO IsolatedClientLoader: Downloaded metastore jars to <path>

. С этого места скопируйте банки в DBFS из того же кластера, а затем используйте сценарий инициализации, чтобы скопировать файлы из DBFS в папку "/ databricks / hive_metastore_jars / "

...