Могу ли я избежать двойного backsla sh и указать в pyspark при преобразовании из dataframe в csv? - PullRequest
0 голосов
/ 03 апреля 2020

У меня есть большой фрейм данных, где некоторые поля содержат abcdef, xyz\\, а иногда 14"-abcd. Я должен преобразовать этот dataframe в csv в pyspark. Я пробовал несколько escape-последовательностей, т.е. .option("escape", "\\") Но это помогло только с исправлением 14 "-ab c, но я все еще получаю "abcdef\" в csv. Я попытался сбежать с 4 backsla sh, но я получаю ошибку:

     java.lang.RuntimeException: escape cannot be more than one character

Также надоела эта команда:

df_tmp.coalesce(1).write.mode("overwrite").option("header","true").option("escapeQuotes", "false").option("quoteAll", "false").option("escape", "\\").option("charToEscapeQuoteEscaping", "\"").csv('abcd')

и получил

"abcdef, xyz"\"

Можно ли как-то сбежать как следует?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...