У меня есть набор данных CSV со следующими двумя столбцами:
scala> df2.select(col("_c1"), col("_c2")).show
+-------------------+-------------------+
| _c1| _c2|
+-------------------+-------------------+
|2018-01-01 00:00:00|2018-03-11 01:59:59|
|2015-10-24 21:00:00|2015-11-01 01:59:59|
|2017-03-12 02:00:00|2017-03-25 19:59:59|
|2015-10-24 21:00:00|2015-11-01 01:59:59|
|2017-03-12 02:00:00|2017-03-25 19:59:59|
+-------------------+-------------------+
, и я пытаюсь преобразовать столбец в TimestampType:
df2.select(unix_timestamp(col("_c1"), "yyyy-MM-dd HH:mm:ss").cast(TimestampType).as("c1"), unix_timestamp(col("_c2"), "yyyy-MM-dd HH:mm:ss").cast(TimestampType).as("c2")).show
+-------------------+-------------------+
| c1| c2|
+-------------------+-------------------+
|2018-01-01 00:00:00|2018-03-11 01:59:59|
|2015-10-24 21:00:00|2015-11-01 01:59:59|
| null|2017-03-25 19:59:59|
|2015-10-24 21:00:00|2015-11-01 01:59:59|
| null|2017-03-25 19:59:59|
+-------------------+-------------------+
Как видите, яполучать нули во время преобразования.Информация об окружающей среде: - Местный часовой пояс CDT.- Версия Spark 2.2.0
Единственный случай, когда я не получаю нулевые значения, это когда я устанавливаю часовой пояс в формате UTC.
Есть предложения по сужению вопроса?