Spark.Sql не может прочитать японский (Mutltbyte Charater) из таблицы улья? - PullRequest
0 голосов
/ 10 июля 2019

Я пишу японский символ в таблице улья как часть одной из моих программ.Позже, когда я выбираю это поле в Hive, я могу прочитать его, но когда я читаю его из Spark.sql, он не дает ожидаемого результата.

spark.sql ("выберите SQL_VAL как sql_val из abc.ac_tbl, где d_name = '2019-07-09_14: 26: 16.486' ") .show ()

+ ------- + | sql_val |+ ------- + |? |+ ------- +

Та же таблица, когда запрос из улья выдает результат -

выберите SQL_VAL как sql_val из abc.ac_tbl, где d_name = '2019-07-09_14:26: 16.486 'sql_val 文

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...