У меня есть несколько RDD с одним общим полем CustomerId
.
Например:
debitcardRdd
имеет данные как (CustomerId, debitField1, debitField2, ......)
creditcardRdd
имеет данные как (CustomerId, creditField1, creditField2, ....)
netbankingRdd
имеет данные как (CustomerId, nbankingField1, nbankingField2, ....)
Мы выполняем различные преобразования для каждого отдельного rdd, однако нам необходимо выполнить преобразование для данных со всех 3-х сторон путем группировки CustomerId
.
Пример: (CustomerId,debitFiedl1,creditField2,bankingField1,....)
Есть ли способ, которым мы можем сгруппировать данные из всех RDD на основе одного и того же ключа.
Примечание. В Apache Beam это можно сделать с помощью coGroupByKey
, просто проверив, есть ли такая альтернатива в Spark.