Необходимо прочитать поток структурированных данных из потока Кафки и записать его в уже существующую таблицу Hive.После анализа выясняется, что один из вариантов заключается в том, чтобы выполнить readStream источника Kafka, а затем выполнить writeStream в приемник файлов по пути к файлу HDFS.
Мой вопрос здесь - можно ли напрямую записать таблицу Hive?Или существует ли обходной подход, который можно использовать для этого варианта использования?
EDIT1:
.foreachBatch - кажется, работает, но имеет проблему, упомянутую ниже
import org.apache.spark.sql.functions._
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.Dataset
import org.apache.spark.sql.SaveMode
val spark = SparkSession.builder.appName("StructuredNetworkWordCount").getOrCreate()
import spark.implicits._
import org.apache.spark.sql.types.{StructType, StructField, StringType, IntegerType};
//subscribe to kafka topic
val csvDF = spark.readStream.format("kafka").option("kafka.bootstrap.servers", "xxxxxx912:9092").option("subscribe", "testtest").load()
val abcd = csvDF.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)","CAST(topic AS STRING)","CAST(offset AS STRING)","CAST(partition AS STRING)","CAST(timestamp AS STRING)").as[(String, String, String, String, String, String)]
val query = abcd.writeStream.foreachBatch((batchDs: Dataset[_], batchId: Long) => {batchDs.write.mode(SaveMode.Append).insertInto("default.6columns");}).option("quote", "\u0000").start()
hive> select * from 6columns;
OK
0 A3,L1,G1,P1,O1,101,TXN1 testtest 122 0 2019-05-23 12:38:49.515
0 A3,L1,G1,P1,O1,102,TXN2 testtest 123 0 2019-05-23 12:38:49.524
0 A1,L1,G1,P1,O1,100,TXN3 testtest 124 0 2019-05-23 12:38:49.524
0 A2,L2,G1,P1,O2,100,TXN4 testtest 125 0 2019-05-23 12:38:49.524
0 A3,L1,G1,P1,O1,103,TXN5 testtest 126 0 2019-05-23 12:38:54.525
0 A3,L1,G1,P1,O1,104,TXN6 testtest 127 0 2019-05-23 12:38:55.525
0 A4,L1,G1,P1,O1,100,TXN7 testtest 128 0 2019-05-23 12:38:56.526
0 A1,L1,G1,P1,O1,500,TXNID8 testtest 129 0 2019-05-23 12:38:57.526
0 A6,L2,G2,P1,O1,500,TXNID9 testtest 130 0 2019-05-23 12:38:57.526
То, что я ищу, - это разделить атрибут значения сообщения Kafka так, чтобы данные напоминали таблицу Hive, из которой они становятся таблицей из 12 столбцов (A3, L1, G1, P1, O1,101, TXN1 - разделяютсяна 7 атрибутов).Нужна дополнительная трансформация, похожая на .option ("quote", "\ u0000"), которую я сделал при написании фрейма данных.Но, похоже, не работает.