объединить столбцы данных scala в одном классе - PullRequest
0 голосов
/ 28 февраля 2019

У меня есть датафрейм, который выглядит следующим образом:

+--------+-----+--------------------+
|     uid|  iid|               color|
+--------+-----+--------------------+
|41344966| 1305|                 red| 
|41344966| 1305|               green|

Я хочу добраться до этого максимально эффективно:

+--------+--------------------+
|     uid|     recommendations|
+--------+--------------------+
|41344966|      [[2174, red...|
|41345063|    [[2174, green...|
|41346177|   [[2996, orange...|
|41349171|   [[2174, purple...|

res98: org.apache.spark.sql.Dataset[userRecs] = [uid: int, recommendations: array<struct<iid:int,color:string>>]

Поэтому я хочу сгруппировать записи по uid в массив объектов.Каждый объект является классом с параметрами iid и color.

case class itemData (iid: Int, color: String)

case class userRecs (uid: Int, recommendations: Array[itemData])

1 Ответ

0 голосов
/ 01 марта 2019

Делает ли это то, что вы хотите?

scala> case class itemData (iid: Int, color: String)
defined class itemData

scala> case class userRecs (uid: Int, recommendations: Array[itemData])
defined class userRecs

scala> val df = spark.createDataset(Seq(
    (41344966,1305,"red"),
    (41344966,1305,"green"),
    (41344966,2174,"red"),
    (41345063,2174,"green"),
    (41346177,2996,"orange"),
    (41349171,2174,"purple")
)).toDF("uid", "iid", "color")
df: org.apache.spark.sql.DataFrame = [uid: int, iid: int ... 1 more field]

scala> (df.select($"uid", struct($"iid",$"color").as("itemData"))
        .groupBy("uid")
        .agg(collect_list("itemData").as("recommendations"))
        .as[userRecs]
        .show())
+--------+--------------------+
|     uid|     recommendations|
+--------+--------------------+
|41344966|[[1305, red], [13...|
|41345063|     [[2174, green]]|
|41346177|    [[2996, orange]]|
|41349171|    [[2174, purple]]|
+--------+--------------------+
...