Как преобразовать DStream [(Array [String], Long)] в фрейм данных в Spark Streaming - PullRequest
0 голосов
/ 09 февраля 2019

Я пытаюсь преобразовать мой dstream в Dataframe. Вот код, который используется для преобразования моего dstream в Dataframe

           val ssc = new StreamingContext(spark.sparkContext, Seconds(10))
           val kafkaParams = Map[String, Object](
           "bootstrap.servers" -> "ffff.dl.uk.fff.com:8002",
           "security.protocol" -> "SASL_PLAINTEXT",
           "key.deserializer" -> classOf[StringDeserializer],
           "value.deserializer" -> classOf[StringDeserializer],
           "group.id" -> "1",
           "auto.offset.reset" -> "latest",
           "enable.auto.commit" -> (false: java.lang.Boolean)
           )

           val topics = Array("mytopic")
           val from_kafkastream = KafkaUtils.createDirectStream[String, 
           String](
           ssc,
           PreferConsistent,
           Subscribe[String, String](topics, kafkaParams)
           )
           val strmk = from_kafkastream.map(record => 
          (record.value,record.timestamp))
          val splitup2 = strmk.map{ case (line1, line2) => 
   (line1.split(","),line2)}

          case class Record(name: String, trQ: String, traW: String,traNS: 
   String, traned: String, tranS: String,transwer: String, trABN: 
  String,kafkatime: Long)

          object SQLContextSingleton {
            @transient  private var instance: SQLContext = _

            def getInstance(sparkContext: SparkContext): SQLContext = {
              if (instance == null) {
                instance = new SQLContext(sparkContext)
              }
              instance
            }
          }
          splitup2.foreachRDD((rdd) => {
          val sqlContext = SQLContextSingleton.getInstance(rdd.sparkContext)
          spark.sparkContext.setLogLevel("ERROR")
          import sqlContext.implicits._
          val requestsDataFrame = rdd.map(w => Record(w(0).toString, 
  w(1).toString, w(2).toString,w(3).toString, w(4).toString, 
  w(5).toString,w(6).toString, w(7).toString,w(8).toString)).toDF()
          // am getting issue here
          requestsDataFrame.show()
          })
          ssc.start()

Я получаю сообщение об ошибке: enter image description here

Может кто-нибудь помочь, как преобразовать мои потоки в DF, как я новый мир искры

1 Ответ

0 голосов
/ 10 февраля 2019

Возможно, ошибка заключается в построении объекта Record, потому что вы не передаете kafkatime, только строковые значения, а также кортеж, к которому у вас нет доступа к массиву атрибутов этой формы.

Youможно попробовать это:

import session.sqlContext.implicits._
val requestsDataFrame = rdd.map(w => Record(
  w._1(0).toString,
  w._1(1).toString, w._1(2).toString, w._1(3).toString, w._1.toString,
  w._1(5).toString, w._1(6).toString, w._1(7).toString, w._2))

requestsDataFrame.toDF()
...