Чтение вложенного Json с помощью Spark 2.1.1 в JAVA (у Spark 2.2 есть решение, но я работаю над версией spark 2.1.1) - PullRequest
0 голосов
/ 05 марта 2019

Я хотел бы создать таблицу в spark-SQL, используя нижеприведенные данные.

[{
  "empstr": "Blogspan",
  "empbyte": 48,
  "empshort": 457,
  "empint": 935535,
  "emplong": 36156987676070,
  "empfloat": 6985.98,
  "empdoub": 6392455.0,
  "empdec": 0.447,
  "empbool": 0,
  "empdate": "09/29/2018",
  "emptime": "2018-03-24 12:56:26"
}, {
  "empstr": "Lazzy",
  "empbyte": 9,
  "empshort": 460,
  "empint": 997408,
  "emplong": 37564196351623,
  "empfloat": 7464.75,
  "empdoub": 5805694.86,
  "empdec": 0.303,
  "empbool": 1,
  "empdate": "08/14/2018",
  "emptime": "2018-06-17 18:31:15"
}]

, но, когда я попытался увидеть схему печати, она показывает поврежденный_редорд.Итак, не могли бы вы мне помочь, как прочитать вложенную запись JSON в JAVA-spark 2.1.1 Ниже я приложу свой код

case "readjson":

    tempTable = hiveContext.read().json(hiveContext.sparkContext().wholeTextFiles("1.json", 0));
    /*In above line i am getting error at .json says 
    The method json(String...) in the type DataFrameReader is not applicable for the arguments (RDD<Tuple2<String,String>>)


    //tempTable = hiveContext.read().json(componentBean.getHdfsPath());

tempTable.printSchema();
        tempTable.show();
        tempTable.createOrReplaceTempView(componentKey);
        break;

1 Ответ

0 голосов
/ 05 марта 2019

Похоже, у вас проблемы с тем, какие части API использовать.

Вы должны помнить, что SparkContext! = JavaSparkContext.

Это означает, что вам нужно создать a JavaSparkContext объект из вашего активного SparkSession:

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;
import org.apache.spark.sql.SparkSession;

// [...]

SparkSession session = SparkSession.builder().getOrCreate();
SQLContext hiveContext = session.sqlContext();
JavaSparkContext sc = JavaSparkContext.fromSparkContext(session.sparkContext());
JavaRDD<String> jsonRDD = sc.wholeTextFiles("path/to/data", 2).values();
Dataset<Row> jsonDataset = hiveContext.read().json(jsonRDD);

jsonDataset.show();

// +-------+-------+----------+------+----------+--------+------+--------------+--------+--------+-------------------+
// |empbool|empbyte|   empdate|empdec|   empdoub|empfloat|empint|       emplong|empshort|  empstr|            emptime|
// +-------+-------+----------+------+----------+--------+------+--------------+--------+--------+-------------------+
// |      0|     48|09/29/2018| 0.447| 6392455.0| 6985.98|935535|36156987676070|     457|Blogspan|2018-03-24 12:56:26|
// |      1|      9|08/14/2018| 0.303|5805694.86| 7464.75|997408|37564196351623|     460|   Lazzy|2018-06-17 18:31:15|
// +-------+-------+----------+------+----------+--------+------+--------------+--------+--------+-------------------+

Надеюсь, это поможет.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...