У меня S3 bucket с двумя форматами разделов:
- S3: // bucketname / имя_таблицы / год / месяц / день
- S3: // bucketname / имя_таблицы / устройство / год / месяц / день
Формат файла Avro.
Я пытался прочитать val df = spark.read.format("com.databricks.spark.avro").load("s3://S3://bucketname/tablename")
.
Информация об ошибке
java.lang.AssertionError: assertion failed: Conflicting partition column names detected:
Partition column name list #0: xx, yy
Partition column name list #1: xx
For partitioned table directories, data files should only live in leaf directories.
And directories at the same level should have the same partition column name.
Please check the following directories for unexpected files or inconsistent partition column names: