Мой проект подключает Tableau к Databricks с помощью драйвера SIMBA Spark ODB C. Я пытаюсь прочитать таблицу HIVE
в формате OpenCSVSerde
. Таблица имеет следующий формат: ROW
, INPUTFORMAT
и OUTPUTFORMAT
.
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde' WITH
SERDEPROPERTIES ( 'separatorChar'=',') STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat' OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
Я установил hive_serde
jar (как из репозитория maven, так и отдельно загруженный JAR из локального machine) в моих библиотеках в Databricks. Однако Tableau, похоже, не читает JAR. Когда я пытаюсь получить доступ к этой таблице из Tableau, я получаю следующее сообщение об ошибке:
[Simba][Hardy] (35) Error from server: error code: '0' error message: 'Error running query: java.lang.RuntimeException:
MetaException(message:java.lang.ClassNotFoundException Class org.apache.hadoop.hive.serde2.OpenCSVSerde not found)'. The table "[schema_name].[table_name]" does not exist.
Я также попытался установить serde jar, который находится в моем производственном кластере (думая, что это может быть проблема с версией). Это тоже не помогает и выскакивает та же ошибка. Таблицы в формате OrcSerde ROW работают нормально.