Я только начал изучать spark и scala и тестировать некоторые преобразования и действия с RDD.
Я обнаружил, что ReduceByKey используется следующим образом:
rdd.reduceByKey((x, y) => x + y)
где, ввзять кортеж из двух одинаковых значений и объединить их с помощью операции сложения.
Теперь мой вопрос: не можем ли мы сложить более двух значений одновременно или все значения с одним и тем же ключом за один раз?Примерно так:
rdd.reduceByKey((p, q, r, s) => p+q+r+s)
Зачем добавлять только два значения?Добавление более двух значений также может сэкономить много вычислений?