Я могу прочитать в кадре данных Spark как пользовательский объект, подобный этому:
spark.read.csv("path/to/file").as[Gizmo]
Но как я могу преобразовать один объект Spark Row
в его эквивалентный класс case?(Если вы беспокоитесь о , почему я хочу это сделать, обратитесь к с этим вопросом .) Очевидно, что Spark знает, как это сделать, но я не вижу прямого способавыполнение этого (если не считать преобразование Row
в СДР длиной 1, а затем обратное преобразование).
row.as[Gizmo] // doesn't work. What goes here?