В одноразовом сценарии предлагается привести тип данных и переписать целевой файл паркета.
scala> val df = Seq((1, "as"), (2, "fd")).toDF("a", "b")
df: org.apache.spark.sql.DataFrame = [a: int, b: string]
scala> df.show
+---+---+
| a| b|
+---+---+
| 1| as|
| 2| fd|
+---+---+
scala> df.withColumn("a", $"a".cast("double")).show
+---+---+
| a| b|
+---+---+
|1.0| as|
|2.0| fd|
+---+---+
Если нет, то вам необходимо обновить исходную систему с той же логикой