Вы можете получить приведенный ниже код для чтения данных из хранилища BLOB-объектов, используя Azure Блоки данных.
# Set up an account access key:
# Get Storage account Name and
spark.conf.set("fs.azure.account.key.chepra.blob.core.windows.net", "gv7nVISerl8wbK9mPGm8TC3CQIEjV3Z5dQxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxldlOiA==")
df = spark.read.csv("wasbs://sampledata@chepra.blob.core.windows.net/Azure/AzureCostAnalysis.csv", header="true")
df.show()
Для dbutils.fs. Нет необходимости использовать волшебные c ячейки, такие как% scala, вы можете использовать приведенный ниже код для получения результатов всех файлов в контейнере:
# Get file information
dbutils.fs.ls("wasbs://sampledata@chepra.blob.core.windows.net/Azure")
Надеюсь, это поможет. Сообщите нам, если у вас возникнут дополнительные вопросы.