SparkSQL MS SQL Server, получить сообщение «Нет подходящего драйвера» после компиляции - PullRequest
0 голосов
/ 02 декабря 2018

build.sbt

name := "BigData"

version := "0.1"

scalaVersion := "2.12.7"

libraryDependencies += "com.github.tototoshi" %% "scala-csv" % "1.3.5"
// https://mvnrepository.com/artifact/org.apache.spark/spark-core
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.0"

// https://mvnrepository.com/artifact/org.apache.spark/spark-sql
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.4.0"
// https://mvnrepository.com/artifact/com.microsoft.sqlserver/mssql-jdbc
libraryDependencies += "com.microsoft.sqlserver" % "mssql-jdbc" % "6.1.0.jre8" % Test

SparkMSSQL.scala

import org.apache.spark.sql.SparkSession

object SparkMSSQL {

  def main(args: Array[String]): Unit = {

    val spark = SparkSession.
      builder.master("local[*]")
      .appName("Simple Application")
      .getOrCreate()
    val url = "jdbc:sqlserver://localhost;databaseName=scalatest;integratedSecurity=true";
    // Define database table to load into DataFrame
    val jdbcDbTable = "dbo.user_profiles"
    val df = spark
      .read
      .format("jdbc")
      .option("url", url)
      .option("dbtable", "dbo.user_profiles")
      .load()

    df.printSchema()
  }
}

Ошибка после компиляции

Exception in thread "main" java.sql.SQLException: No suitable driver
    at java.sql.DriverManager.getDriver(DriverManager.java:315)
    at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.$anonfun$driverClass$2(JDBCOptions.scala:105)
    at scala.Option.getOrElse(Option.scala:121)
    at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:105)
    at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:35)
    at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:32)
    at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:318)
    at org.apache.spark.sql.DataFrameReader.loadV1Source(DataFrameReader.scala:223)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:211)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:167)

Пожалуйста, совет, что не так с моим кодом?

1 Ответ

0 голосов
/ 02 декабря 2018

Во-первых, у вас есть драйвер jdbc в области действия test, поэтому, вероятно, файл jar не загружается во время выполнения.Кроме того, для создания JDBC-соединения требуется информация о классе драйвера, поэтому попробуйте добавить следующую опцию в инициализатор DF:

.option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...