Моя среда - Spark 2.1, Scala
Это может быть просто, но я ломаю голову.
Мой Dataframe, myDF похож на ниже -
+--------------------+----------------+
| orign_timestamp | origin_timezone|
+--------------------+----------------+
|2018-05-03T14:56:...|America/St_Johns|
|2018-05-03T14:56:...| America/Toronto|
|2018-05-03T14:56:...| America/Toronto|
|2018-05-03T14:56:...| America/Toronto|
|2018-05-03T14:56:...| America/Halifax|
|2018-05-03T14:56:...| America/Toronto|
|2018-05-03T14:56:...| America/Toronto|
+--------------------+----------------+
Мне нужно преобразовать orign_timestamp в UTC и добавить новый столбец в DF. Код ниже работает нормально.
myDF.withColumn("time_utc", to_utc_timestamp(from_unixtime(unix_timestamp(col("orign_timestamp"), "yyyy-MM-dd'T'HH:mm:ss")),("America/Montreal"))).show
Проблема в том, что я установил часовой пояс на "Америка / Монреаль". Мне нужно передать столбец timeZone "orign_timeone" столбец. Я пытался
myDF.withColumn("time_utc", to_utc_timestamp(from_unixtime(unix_timestamp(col("orign_timestamp"), "yyyy-MM-dd'T'HH:mm:ss")), col("orign_timezone".toString.trim))).show
got Error:
<console>:34: error: type mismatch;
found : org.apache.spark.sql.Column
required: String
Я попробовал приведенный ниже код, но не через исключение, но новый столбец имел то же время, что и origin_time.
myDF.withColumn("origin_timestamp", to_utc_timestamp(from_unixtime(unix_timestamp(col("orign_timestamp"), "yyyy-MM-dd'T'HH:mm:ss")), col("rign_timezone").toString)).show