java.lang.IllegalArgumentException: не удается получить тип JDBC для массива <string> - PullRequest
0 голосов
/ 06 мая 2018

Я хочу импортировать выходные данные в базу данных mysql, но возникает следующая ошибка, я не буду преобразовывать массив в нужный тип строки, можете мне помочь?

 val Array(trainingData, testData) = msgDF.randomSplit(Array(0.9, 0.1))
    val pipeline = new Pipeline().setStages(Array(labelIndexer, word2Vec, mlpc, labelConverter))
    val model = pipeline.fit(trainingData)
    val predictionResultDF = model.transform(testData)
    val rows = predictionResultDF.select("song", "label", "predictedLabel")
    val df = rows.registerTempTable("song_classify")
    val sqlcommand = "select * from song_classify"
    val prop = new java.util.Properties
    prop.setProperty("user", "root")
    prop.setProperty("password", "123")
    sqlContext.sql(sqlcommand)
      .write.mode(SaveMode.Append).jdbc("jdbc:mysql://localhost:3306/yuncun", "song_classify", prop)
    sc.stop

Вот вывод консоли

Exception in thread "main" java.lang.IllegalArgumentException: Can't get JDBC type for array<string>
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$$anonfun$org$apache$spark$sql$execution$datasources$jdbc$JdbcUtils$$getJdbcType$2.apply(JdbcUtils.scala:148)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$$anonfun$org$apache$spark$sql$execution$datasources$jdbc$JdbcUtils$$getJdbcType$2.apply(JdbcUtils.scala:148)
    at scala.Option.getOrElse(Option.scala:121)

Я хочу сохранить следующие данные в базе данных mysql

+---------+-----+--------------+
|     song|label|predictedLabel|
+---------+-----+--------------+
|   [一吻天荒]|    1|             2|
|  [有一点动心]|    1|             2|
|   [有你真好]|    1|             2|
|  [永远不分开]|    1|             2|
|[我要我们在一起]|    2|             2|
|  [后来的我们]|    2|             2|
|     [喜欢]|    2|             2|
|     [夜车]|    2|             2|
|   [寂寞疯了]|    2|             2|
|     [拥抱]|    2|             2|
|   [方圆几里]|    2|             2|
|   [时间煮雨]|    2|             2|
|    [爱上你]|    2|             2|
|     [献世]|    2|             2|
|   [说散就散]|    2|             2|
+---------+-----+--------------+

Но первый столбец является массивом, поэтому программа получает ошибку

Можете ли вы помочь мне предложить план изменений? Спасибо

1 Ответ

0 голосов
/ 07 мая 2018

Необходимо удалить columns с типом array перед записью в базы данных.

Вы можете создать string с запятой, отделенной для типа столбца array как

val datafrme = ??

import org.apache.spark.sql.functions._

dataframe.withColumn("song", concat_ws(",", $"song"))
// then write to database
    .write.mode(SaveMode.Append).jdbc("url", "song_classify", prop)

concat_ws создает строку значений в array с указанным разделителем.

Надеюсь, это поможет!

...