Я попытался объединить два файла в Datalake, используя scala в блоках данных, и сохранил его обратно в Datalake, используя следующий код:
val df =sqlContext.read.format("com.databricks.spark.csv").option("header", "true").option("inferSchema", "true").load("adl://xxxxxxxx/Test/CSV")
df.coalesce(1).write.
format("com.databricks.spark.csv").
mode("overwrite").
option("header", "true").
save("adl://xxxxxxxx/Test/CSV/final_data.csv")
Однако файл final_data.csv сохраняется как каталог, а не как файл с несколькими файлами, а фактический файл .csv сохраняется как 'part-00000-tid-dddddddddd-xxxxxxxxxx.csv'.
Как переименовать этот файл, чтобы я мог переместить его в другой каталог?