Я использую блоки данных Azure и запустил следующий код Python:
sas_token = "<my sas key>"
dbutils.fs.mount(
source = "wasbs://<container>@<storageaccount>.blob.core.windows.net",
mount_point = "/mnt/gl",
extra_configs = {"fs.azure.sas.<container>.<storageaccount>.blob.core.windows.net": sas_token})
Казалось, все работает нормально. Итак, я побежал:
df = spark.read.text("/mnt/gl/glAgg_LE.csv")
Который дал мне ошибку:
shaded.databricks.org.apache.hadoop.fs.azure.AzureException: com.microsoft.azure.storage.StorageException: Server failed to authenticate the request. Make sure the value of Authorization header is formed correctly including the signature.
Не уверен, что я делаю не так, хотя. Я почти уверен, что мой ключ sas правильный.