У меня проблемы с пониманием кругового разбиения робина в Spark. Рассмотрим следующий пример. Я разделил Seq размером 3 на 3 раздела:
val df = Seq(0,1,2).toDF().repartition(3)
df.explain
== Physical Plan ==
Exchange RoundRobinPartitioning(3)
+- LocalTableScan [value#42]
Теперь, если я проверяю разделы, я получаю:
df
.rdd
.mapPartitionsWithIndex{case (i,rows) => Iterator((i,rows.size))}
.toDF("partition_index","number_of_records")
.show
+---------------+-----------------+
|partition_index|number_of_records|
+---------------+-----------------+
| 0| 0|
| 1| 2|
| 2| 1|
+---------------+-----------------+
Если я сделаю то же самое с Seq размером 8 и разделю его на 8 разделов, у меня будет еще хуже:
(0 to 7).toDF().repartition(8)
.rdd
.mapPartitionsWithIndex{case (i,rows) => Iterator((i,rows.size))}
.toDF("partition_index","number_of_records")
.show
+---------------+-----------------+
|partition_index|number_of_records|
+---------------+-----------------+
| 0| 0|
| 1| 0|
| 2| 0|
| 3| 0|
| 4| 0|
| 5| 0|
| 6| 4|
| 7| 4|
+---------------+-----------------+
Может кто-нибудь объяснить это поведение. Насколько я понимаю, разбиение по круговому алгоритму показывает, что все разделы имеют одинаковый размер.