У меня есть org.apache.spark.util.CollectionAccumulator[(Double, Double)]
И я добавил в него строки во время потоковой передачи.
Теперь я хочу преобразовать его в DataFrame для дальнейшей обработки.Но я не уверен, как этого добиться.
Редактировать
Добавление фрагмента кода для заполнения аккумулятора:
val strmquery = dataFramedummy.writeStream.foreach(new ForeachWriter[Row]() {
override def open(partitionId: Long, version: Long): Boolean = true
override def process(row: Row): Unit = {
println(s">> Processing ${row}")
accumulator.add((row.getAs("Field1").asInstanceOf[Double], row.getAs("Filed2").asInstanceOf[Double]))
}
override def close(errorOrNull: Throwable): Unit = {
// do nothing
}
}).outputMode("append").start()