Scala Spark, показать отдельное значение столбца и подсчитать количество вхождений - PullRequest
0 голосов
/ 04 июля 2019

Я пытаюсь просмотреть файлы паркета и хотел бы показать количество отдельных значений столбца и количество строк, в которых он найден.

Эквивалент SQL:

select distinct(last_name), count(*) from optimization.opt_res group by (last_name)

В scala-spark (отображает их отдельно):

val dataFrame = sparkSession.read.parquet(fname)
dataFrame.show(truncate = false)
val disID = dataFrame.select("last_name").distinct()
disID.show(false)
val disCount = disID.count

Я хочу, чтобы это показывалось

+-----------+-------+
| last_name | count |
+-----------+-------+
| Alfred    |   202 |
| James     |  1020 |
+-----------+-------+

1 Ответ

1 голос
/ 04 июля 2019

dataframe.groupBy($"last_name").agg(count("*"))

или

dataframe.groupBy($"last_name").count

Концепция такая же, как в SQL, но синтаксис может быть немного хитрым, пока вы не привыкнете к нему.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...