Во-первых, я совершенно новичок в scala и spark, хотя немного famailiar с pyspark.Я работаю с внешним файлом JSON, который довольно большой, и мне не разрешено преобразовывать его в набор данных или фрейм данных.Я должен выполнить операции на чистом RDD.
Итак, я хотел знать, как я могу получить конкретное значение ключа.Поэтому я читаю свой файл json как sc.textFile("information.json")
Теперь обычно в python я хотел бы сделать так:
x = sc.textFile("information.json").map(lambda x: json.loads(x))\
.map(lambda x: (x['name'],x['roll_no'])).collect()
есть ли какой-либо эквивалент вышеуказанного кода в scala (извлечение значения определенных ключей) в RDD без преобразования в dataframe илинабор данных.
По сути тот же вопрос, что и Эквивалентная функция json.loads pyspark для spark-shell , но в надежде получить более конкретный и дружественный для новичков ответ.Спасибо
Данные Json: {"name":"ABC", "roll_no":"12", "Major":"CS"}