Я пытаюсь применить функцию к каждой строке Spark DataFrame, как в примере.
val df = sc.parallelize(
Seq((1, 2, 0), (0, 0, 1), (0, 0, 0))).toDF("x", "y", "z")
df.show()
, что дает
+---+---+---+
| x| y| z|
+---+---+---+
| 1| 2| 0|
| 0| 0| 1|
| 0| 0| 0|
+---+---+---+
Предположим, я хочу что-то сделать длязначения в каждой строке, например, меняются с 0 на 5.
val b = df.map(row => row.toSeq.map(x => x match{
case 0 => 5
case x: Int => x
}))
b.show()
+---------+
| value|
+---------+
|[1, 2, 5]|
|[5, 5, 1]|
|[5, 5, 5]|
+---------+
Функция сработала, но у меня теперь есть один столбец, записи которого являются списками, а не 3 столбца с целочисленными значениями.Я хочу вернуть мои именованные столбцы.