Я использую следующий код SparkR в Databricks для записи фрейма данных Spark в хранилище озера данных Azure.
spark_df %>% coalesce(1L) %>%
write.df("...azuredatalakestore.net/...folder_name/", source = "csv", mode = "overwrite", header = "true")
Я вижу несколько других файлов и основной объединенный файл, который выглядит как "part-0000"... CSV».Мне нужно изменить его имя, чтобы сказать "alpha.csv".
Я видел много вопросов на эту тему с решениями, использующими scala, java, pyspark и т. Д., Но не было четкого решения с использованием R или SparkR.
Пожалуйста, предложите решение кода R или SparkR.