DataStax Cassandra - Scala Spark Application - сбой сборки SBT - PullRequest
0 голосов
/ 20 сентября 2018

У меня есть простое демо-приложение Scala, которое читает из файла и выводит на экран.Я пытаюсь построить это приложение с помощью sbt и отправить его в DataStax Spark.Инструкции SBT в документации DataStax кажутся неполными.https://docs.datastax.com/en/dse/6.0/dse-dev/datastax_enterprise/spark/sparkJavaApi.html Использование этого как есть не работало из-за отсутствия ссылки на хранилище данных datastax.

После небольшого поиска нашел образец файла build.sbt из https://github.com/datastax/SparkBuildExamples/blob/master/scala/sbt/dse/build.sbtкоторый пошел дальше всего.

Этот сбой здесь:

[error] unresolved dependency: org.apache.directory.api#api-ldap-codec-standalone;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-extras-codec;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-net-mina;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-codec-core;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-extras-aci;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-extras-codec-api;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-ldap-model;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-asn1-ber;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-util;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-asn1-api;1.0.0.2.dse: not found
[error] unresolved dependency: org.apache.directory.api#api-i18n;1.0.0.2.dse: not found

Ключевые разделы build.sbt:

scalaVersion := "2.11.8"

resolvers += Resolver.mavenLocal // for testing
resolvers += "DataStax Repo" at "https://repo.datastax.com/public-repos/"

val dseVersion = "6.0.0"

libraryDependencies += "com.datastax.dse" % "dse-spark-dependencies" % dseVersion % "provided" exclude(
    "org.slf4j", "log4j-over-slf4j", "org.apache.directory.api")

libraryDependencies ++= Seq(
  "junit" % "junit" % "4.12" % "test"
).map(_.excludeAll(
  ExclusionRule("org.slf4j","log4j-over-slf4j"),
  ExclusionRule("org.slf4j","slf4j-log4j12"))
)  // Excluded to allow for Cassandra to run embedded

Кажется, что нарушена зависимость.Вы могли бы посоветовать.

1 Ответ

0 голосов
/ 20 сентября 2018

Пожалуйста, попробуйте следующую зависимость

scalaVersion := "2.11.8"

libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "2.0.9"
...