Я пишу программу для приема данных.Для чтения из Kafka в DStream разделите Dstrem на 3 потока и выполните действия для каждого из них:
val stream = createSparkStream(Globals.configs, ssc)
val s1 = stream.filter(<predicat1>)
val s2 = stream.filter(<predicat2>)
val s3 = stream.filter(<predicat3>)
//I'm looking for something like:
s1.forEachRddAsync(...
s2.forEachRddAsync(...
s3.forEachRddAsync(...
Если возможно инициировать асинхронную отправку для всего DStream, а не для RDD.