У меня есть CSV-файл:
Name;Date
A;2018-01-01 10:15:25.123456
B;2018-12-31 10:15:25.123456
Я пытаюсь выполнить синтаксический анализ Spark Dataframe:
val df = spark.read.format(source="csv")
.option("header", true)
.option("delimiter", ";")
.option("inferSchema", true)
.option("timestampFormat", "yyyy-MM-dd HH:mm:ss.SSSSSS")
Но полученный Dataframe (ошибочно) усекается за миллисекунду:
scala> df.show(truncate=false)
+---+-----------------------+
|Nom|Date |
+---+-----------------------+
|A |2018-01-01 10:17:28.456|
|B |2018-12-31 10:17:28.456|
+---+-----------------------+
df.first()(1).asInstanceOf[Timestamp].getNanos()
res51: Int = 456000000
Бонусный вопрос: читать с точностью до наносекунды