Я новичок в лазурных блоках данных и пытаюсь создать внешнюю таблицу, указывающую на местоположение Gen-2 хранилища озера данных Azure (ADLS).
В записной книжке блоков данных я попытался настроить конфигурацию искры для ADLSдоступ.Тем не менее, я не могу выполнить созданный DDL.
Примечание : Одно из решений, которое мне подходит, - это подключение учетной записи ADLS к кластеру, а затем использование местоположения подключения в DDL внешней таблицы.Но мне нужно было проверить, возможно ли создать внешнюю таблицу DDL с путем ADLS без места монтирования.
# Using Principal credentials
spark.conf.set("dfs.azure.account.auth.type", "OAuth")
spark.conf.set("dfs.azure.account.oauth.provider.type", "ClientCredential")
spark.conf.set("dfs.azure.account.oauth2.client.id", "client_id")
spark.conf.set("dfs.azure.account.oauth2.client.secret", "client_secret")
spark.conf.set("dfs.azure.account.oauth2.client.endpoint",
"https://login.microsoftonline.com/tenant_id/oauth2/token")
DDL
create external table test(
id string,
name string
)
partitioned by (pt_batch_id bigint, pt_file_id integer)
STORED as parquet
location 'abfss://container@account_name.dfs.core.windows.net/dev/data/employee
Получено сообщение об ошибке
Error in SQL statement: AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveException: MetaException(message:Got exception: shaded.databricks.v20180920_b33d810.org.apache.hadoop.fs.azurebfs.contracts.exceptions.ConfigurationPropertyNotFoundException Configuration property account_name.dfs.core.windows.net not found.);
Мне нужна помощь, чтобы узнать, можно ли напрямую ссылаться на местоположение ADLS в DDL?
Спасибо.