Я пытаюсь использовать R для подключения к Azure Blob, откуда хранятся некоторые файлы CSV. Мне нужно загрузить их в фрейм данных и сделать некоторые преобразования в них, прежде чем записать их обратно в другой контейнер BLOB-объектов. Я пытаюсь сделать это с помощью Databricks, чтобы в конечном итоге я мог вызвать этот блокнот из Data Factories и включить его в конвейер.
Databricks дает мне образец блокнота в Python, где можно установить соединение с следующий код:
storage_account_name = "testname"
storage_account_access_key = "..."
file_location = "wasb://example@testname.blob.core.windows.net/testfile.csv"
spark.conf.set(
"fs.azure.account.key."+storage_account_name+".blob.core.windows.net",
storage_account_access_key)
df = spark.read.format('csv').load(file_location, header = True, inferSchema = True)
Есть ли что-то похожее в R? Я могу использовать пакет SparkR или Sparklyr в R, если он может помочь мне загрузить файл и поместить его в фрейм данных Spark.