Я знаю, что DataFrames в Spark поддерживают динамическое разбиение.
Какой-то пост, где я узнал об этом: https://medium.com/@anuvrat/writing-into-dynamic-partitions-using-spark-2e2b818a007a
Мой вопрос:
** Поддерживается ли динамическое разбиение массивами данных в Spark? ** или является альтернативой для преобразования в dataframe и использования его для записи динамических разделов.