Я использую spark для чтения данных из таблицы Hive, и мне действительно нужен строго типизированный Dataset
Вот что я делаю, и это работает:
val myDF = spark.sql("select col1, col2 from hive_db.hive_table")
// Make sure that the field names in the case class exactly match the hive column names
case class MyCaseClass (col1: String, col2: String)
val myDS = myDF.as[myCaseClass]
Проблема, с которой я столкнулся, состоит в том, что моя таблица Hive очень длинная, и многие столбцы являются структурами, поэтому определение класса дела нетривиально
. Есть ли способ создать Dataset
без необходимостисоздать кейс-класс?Мне было интересно, что, поскольку в Hive уже определены все имена столбцов, а также типы данных, есть ли способ создать Dataset
напрямую?