Я думаю, вам нужно добавить следующие параметры для чтения: .option ("escape", "\\") и .option ("quote", "\\")
val test = spark.read
.option("header", true)
.option("quote", "\\")
.option("escape", "\\")
.option("delimiter", ",")
.csv(".../test.csv")
Вот тестовый CSV, на котором я его использовал:
a,b,c
1,b,a
5,d,e
5,"a,"f
Полный вывод:
scala> val test = spark.read.option("header", true).option("quote", "\\").option("escape", "\\").option("delimiter", ",").csv("./test.csv")
test: org.apache.spark.sql.DataFrame = [a: string, b: string ... 1 more field]
scala> test.show
+---+---+---+
| a| b| c|
+---+---+---+
| 1| b| a|
| 5| d| e|
| 5| "a| "f|
+---+---+---+
scala> test.count
res11: Long = 3