Я использую com.databricks.spark.avro.Когда я запускаю его из spark-shell следующим образом: spark-shell --jar spark-avro_2.11-4.0.0.jar
, я могу прочитать файл, выполнив это:
import org.apache.spark.sql.SQLContext
val sqlContext = new SQLContext(sc)
val avroInput = sqlContext.read.format("com.databricks.spark.avro").load(inputPath)
avroInput.write.format("com.databricks.spark.avro").save(outputPath)
Но если я попытаюсь сделать то же самое из моего проекта, используя sbt clean run
, Я получаю:
java.lang.ClassNotFoundException: Failed to find data source: org.apache.spark.sql.avro.AvroFileFormat. Please find packages at http://spark.apache.org/third-party-projects.html
[info] at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:657)
[info] at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:194)
[info] at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:178)
[info] at com.databricks.spark.avro.package$AvroDataFrameReader$$anonfun$avro$2.apply(package.scala:34)
"com.databricks" %% "spark-avro" % "4.0.0"
указан в моих зависимостях и находится в моих внешних библиотеках.Есть ли еще одна зависимость, по которой я скучаю?