У меня есть файл паркета, который содержит два столбца (идентификатор, объекты). Я хочу вычесть элементы из скаляра, разделить вывод на другой скаляр и сохранить вывод в виде файла паркета.
val df=sqlContext.read.parquet("file:///usr/local/spark/dataset/model/data/user/part-r-00000-7d55ba81-5761-4e36-b488-7e6214df2a68.snappy.parquet").toDF("id","features")
val constant1 = 2.4848911616270923
val constant2 = 1.8305483113586494
val performComputation = (s: Double, val1: Double, val2: Double) => { Vectors.dense((s - val1) / val2)
df.withColumn("features", ((df("features")-val1)/val2)) } df.write.parquet("file:///usr/local/spark/dataset/output1")
стиль файла паркетато же самое. что не так?