У меня есть DataFrame
, который я пытаюсь partitionBy
столбца, отсортировать его по этому столбцу и сохранить в формате паркета с помощью следующей команды:
df.write().format("parquet")
.partitionBy("dynamic_col")
.sortBy("dynamic_col")
.save("test.parquet");
Я получаю следующую ошибку:
reason: User class threw exception: org.apache.spark.sql.AnalysisException: 'save' does not support bucketing right now;
Разрешено ли save(...)
?Разрешено только saveAsTable(...)
, что сохраняет данные в Hive?
Любые предложения полезны.