Задача не сериализуется во Flink даже с POJO - PullRequest
0 голосов
/ 06 июня 2018

У меня есть DataSet чтение из файла CSV:

val dataSet = env.readCsvFile[ElecNormNew](
      getClass.getResource("/elecNormNew.arff").getPath,
      pojoFields = Array("date", "day", "period", "nswprice", "nswdemand", "vicprice", "vicdemand", "transfer", "label")

Насколько я знаю, ElecNormNew - это POJO:

// elecNormNew POJO
class ElecNormNew(
  var date: Double,
  var day: Int,
  var period: Double,
  var nswprice: Double,
  var nswdemand: Double,
  var vicprice: Double,
  var vicdemand: Double,
  var transfer: Double,
  var label: String) extends Serializable {

  def this() = {
    this(0, 0, 0, 0, 0, 0, 0, 0, "")
  }
}

У меня также естьпростой класс:

case class Discretizer[T](
  data: DataSet[T],
  nBins: Int = 5,
  s: Int = 1000) {

  private[this] val log = LoggerFactory.getLogger("Discretizer")
  private[this] val V = Vector.tabulate(10)(_ => IntervalHeap(nBins, 1, 1, s))

  private[this] def updateSamples(x: T): Vector[IntervalHeap] = {
    log.warn(s"$x")
    V
  }

  def discretize() = {
    data map (x => updateSamples(x))
  }
}

Но когда я пытаюсь использовать его, например, из теста:

val a = new Discretizer[ElecNormNew](dataSet)
a.discretize

Я получаю следующую ошибку:

org.apache.flink.api.common.InvalidProgramException: Task not serializable
// ...
[info]     at com.elbauldelprogramador.discretizers.IDADiscretizer.discretize(IDADiscretizer.scala:69)
// ...
[info]     Cause: java.io.NotSerializableException: org.apache.flink.api.scala.DataSet
// ...

Я прочитал эти вопросы и ответы на них, без везения:

1 Ответ

0 голосов
/ 06 июня 2018

Я бы сказал, что первая упомянутая вами ссылка дает ответ :

Проблема в том, что вы ссылаетесь на страницы DataSet из MapFunction.Это невозможно, поскольку DataSet является только логическим представлением потока данных и недоступен во время выполнения.

discretize использует map, что также применимо и здесь.

...