Я использую PySpark версии 2.4 для чтения некоторых таблиц, используя jdbc с драйвером Postgres.
df = spark.read.jdbc(url=data_base_url, table="tablename", properties=properties)
Один столбец является столбцом отметки времени, и я хочу отфильтровать его следующим образом:
df_new_data = df.where(df.ts > last_datetime )
Таким образом, фильтр отбрасывается как запрос SQL, но формат даты и времени неправо.Так что я попробовал этот подход
df_new_data = df.where(df.ts > F.date_format( F.lit(last_datetime), "y-MM-dd'T'hh:mm:ss.SSS") )
, но тогда фильтр больше не сбрасывался.
Может кто-нибудь уточнить, почему это так?