Мы новички в Spark и теперь используем его для чтения сообщений Kafka в стиле JavaInputDStream, интересуясь, возможно ли применить разделитель на Spark JavaDStream.
Насколько я знаю, Spark делит поток на пакеты (RDD) и RDD для разделов, можно ли говорить, что раздел в Spark ориентирован на время, а не на контент?Возможно ли заархивировать что-то вроде выполнения записей с одинаковыми функциями - например, вывод хеш-функции - на тех же исполнителях / узлах?