Я использую блоки данных и читаю файл .csv из корзины.
MOUNT_NAME = "myBucket/"
ALL_FILE_NAMES = [i.name for i in dbutils.fs.ls("/mnt/%s/" % MOUNT_NAME)] \
dfAll = spark.read.format('csv').option("header", "true").schema(schema).load(["/mnt/%s/%s" % (MOUNT_NAME, FILENAME) for FILENAME in ALL_FILE_NAMES])
Я хотел бы одновременно написать там таблицу.
myTable.write.format('com.databricks.spark.csv').save('myBucket/')