У моего исходного CSV есть столбец времени, например
Time Attempt
12.07.2018 00:00:00 50
12.07.2018 00:15:00 60
...
13.07.2018 00:00:00 100
13.07.2018 00:15:00 30
Я бы хотел сгруппировать по дд / мм / гггг ЧЧ24. В SQL мы можем использовать to_date('Time','dd/mm/yyyy hh24')
, но в Spark я пробовал, но он показывает ошибки ниже.
Пожалуйста, порекомендуйте. Большое спасибо.
val dfAgg = df.select(
unix_timestamp($"time", "yyyy/MM/dd HH:mm:ss").cast(TimestampType).as("timestamp")
,unix_timestamp($"time", "yyyy/MM/dd HH").cast(TimestampType).as("time2")
,to_date($"time","HH").as("time3")
,to_date($"time","yyyy/MM/dd").as("time4")
)
<console>:94: error: too many arguments for method to_date: (e: org.apache.spark.sql.Column)org.apache.spark.sql.Column
,to_date($"time","HH").as("time3")
^
<console>:95: error: too many arguments for method to_date: (e: org.apache.spark.sql.Column)org.apache.spark.sql.Column
,to_date($"time","yyyy/MM/dd").as("time4")