Возможно ли применить разделитель на Spark JavaDStream - PullRequest
0 голосов
/ 26 декабря 2018

Мы новички в Spark и теперь используем его для чтения сообщений Kafka в стиле JavaInputDStream, интересуясь, возможно ли применить разделитель на Spark JavaDStream.

Насколько я знаю, Spark делит поток на пакеты (RDD) и RDD для разделов, можно ли говорить, что раздел в Spark ориентирован на время, а не на контент?Возможно ли заархивировать что-то вроде выполнения записей с одинаковыми функциями - например, вывод хеш-функции - на тех же исполнителях / узлах?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...