У меня есть этот DF:
val df1 = df.filter("brand like '%\"%'").select("brand", "edited_brand").show(10, false)
+----------------------+----------------------+
|brand |edited_brand |
+----------------------+----------------------+
|"carter's" |"carter's" |
|"carter's" |"carter's" |
|"the children's place"|"the children's place"|
|"the children's place"|"the children's place"|
|"the children's place"|"the children's place"|
+----------------------+----------------------+
Я записываю кадр данных в hdfs, используя следующую инструкцию:
df.filter("brand like '%\"%'").select("brand", "edited_brand").write.format("com.databricks.spark.csv").option("delimiter","|").save("/user/xyz/brand_output")
, затем я выполнил команду hadoop ниже, чтобы увидеть содержимое одногофайлов, созданных
hdfs dfs -cat /user/xyz/brand_output/part-r-00000-e9b284f4-eaf8-4782-9a1c-88ca0af10714.csv
"\"carter's\""|"\"carter's\""
"\"the children's place\""|"\"the children's place\""
"\"the children's place\""|"\"the children's place\""
...
Меня беспокоит преобразование "carter's" (содержимое столбца "(двойные кавычки) в" \ "carter's \" ". Для других записей это нене содержите "в нем пишутся нормальным способом.Для бывшего старого военно-морского флота | старого военно-морского флота
Я хотел бы знать, почему данные пишутся таким способом и как избавиться от этих escape-символов.