Я использую Spark JDBC для ввода данных в таблицу Mysql.Это также создает таблицу, если таблица не существует.Многие из текста имеют специальные символы.При проглатывании происходит сбой при обнаружении каких-либо специальных символов.Я решил эту проблему, установив CHARACTER SET utf8 в таблицу MySQL вручную.
Можно ли установить CHARACTER SET utf8
во время создания таблицы в spark JDBC?
Я использую DataFrames для сохранения данных в MySQL.
df.write
.format("jdbc")
.option("url", "jdbc:mysql://localhost")
.option("dbtable", "spark.tweet")
.option("user", "root")
.option("password", "root")
.mode(SaveMode.Append)
.save()