Я создал класс Scala следующим образом:
case class MyObjectWithEventTime(value: MyObject, eventTime: Timestamp)
MyObject - это объект Java.
Я пытаюсь использовать его в своей структуре Spark следующим образом Потоковое задание:
implicit val myObjectEncoder: Encoder[MyObject] = Encoders.bean(classOf[MyObject])
val withEventTime = mystream
.select(from_json(col("value").cast("string"), schema).alias("value"))
.withColumn("eventTime", to_timestamp(col("value.timeArrived")))
.as[MyObjectWithEventTime]
.groupByKey(row => {... some code here
})
.mapGroupsWithState(GroupStateTimeout.ProcessingTimeTimeout())(updateAcrossEvents)
.filter(col("id").isNotNull)
.toJSON
.writeStream
.format("kafka")
.option("checkpointLocation", "/tmp")
.option("kafka.bootstrap.servers", "localhost:9092")
.option("topic", conf.KafkaProperties.outputTopic)
.option("checkpointLocation", "/tmo/checkpointLocation")
.outputMode("update")
.start()
.awaitTermination()
Но я получаю эту ошибку ...
Exception in thread "main" java.lang.UnsupportedOperationException: No Encoder found for com.xxx.MyObject
- field (class: "com.xxx.MyObject", name: "value")
- root class: "com.xxx.MyObjectWithEventTime"