Я получаю файл от API в формате .csv, один из столбцов адреса содержит кодированные значения, такие как
(z$üíõ$F|'.h*Ë!øì=(.î;
Þ.Í×áþ»¯Áͨ
(k$üíõ$F|'.r*Ë!øì=(.î;
Koæice
Но когда он читается в искре, он выглядит как
�����������������������������
Это мы можем сделать, когда мы используем spark 2.2
.option("encoding", "UTF-8")
Но я использую spark 1.6, может ли кто-нибудь помочь мне, если какая-либо такая опция доступна в spark 1.6
В коде я сделалкак
WHERE COL LIKE "^[a-zA-Z0-9]*$"
Но тогда вывод будет 0 запись
Есть ли способ исключить целые строки, если какой-либо из столбцов такого рода не алфавит строки или числа в Spark.я использую scala и spark sql.
любую такую библиотеку или функцию для обработки закодированных значений.
Spark Версия: 1.6
Большое спасибо