Ежемесячная агрегация в писпарке - PullRequest
0 голосов
/ 29 сентября 2018

Я ищу способ агрегирования по месяцам моих данных.Я хочу, во-первых, сохранить только месяц в моей дате посещения.Мой DataFrame выглядит следующим образом:

Row(visitdate = 1/1/2013, 
patientid = P1_Pt1959, 
amount = 200, 
note = jnut, 
) 

Мой последующий объект - группировать по дате посещения и вычислять сумму.Я пробовал это:

from pyspark.sql import SparkSession

spark = SparkSession \
.builder \
.appName("Python Spark SQL basic example") \
.config("spark.some.config.option", "some-value") \
.getOrCreate()

file_path = "G:/Visit Data.csv"
patients = spark.read.csv(file_path,header = True)
patients.createOrReplaceTempView("visitdate")

sqlDF = spark.sql("SELECT visitdate,SUM(amount) as totalamount from visitdate GROUP BY visitdate")
sqlDF.show()

Это результат:

visitdate|totalamount|
+----------+-----------+
|  9/1/2013|    10800.0|
|25/04/2013|    12440.0|
|27/03/2014|    16930.0|
|26/03/2015|    18560.0|
|14/05/2013|    13770.0|
|30/06/2013|    13880.0

Мой объект - получить что-то вроде этого:

  visitdate|totalamount|
+----------+-----------+
|1/1/2013|    10800.0|
|1/2/2013|    12440.0|
|1/3/2013|    16930.0|
|1/4/2014|    18560.0|
|1/5/2015|    13770.0|
|1/6/2015|    13880.0|

Ответы [ 2 ]

0 голосов
/ 01 октября 2018

Похоже, что тип столбца "visitdate" имеет тип String, может быть преобразован в метку времени с помощью "unix_timestamp", а затем в String в требуемом формате с помощью "date_format".После этого можно выполнить группировку в Scala:

val visitMonthDf = df.withColumn("visitMonth", date_format(unix_timestamp($"visitdate", "dd/MM/yyyy").cast(TimestampType), "1/M/yyyy"))
visitMonthDf.groupBy("visitMonth").agg(sum($"totalamount"))
0 голосов
/ 29 сентября 2018

Вы можете сначала отформатировать visitdate, а затем сделать группу:

from pyspark.sql import functions as F

(df.withColumn('visitdate_month', F.date_format(F.col('visitdate'), '1/M/yyyy'))
.groupBy('visitdate_month')
.agg(F.sum(F.col('visitdate_month')))
)
...