Я отвечаю на этот вопрос для конфигураций sbt.Я также получил те же проблемы, которые я недавно решил, и сделал несколько основных ошибок, на которые я хотел бы обратить ваше внимание:
1.Настройте свой файл sbt
, перейдите в файл build.sbt и убедитесь, что используемая вами версия scala совместима с spark. Согласно версии 2.4.0 spark https://spark.apache.org/docs/latest/, версия scalaтребуется 2.11.x, а не 2.12.x.Поэтому, даже если ваша IDE (Eclipse / IntelliJ) показывает последнюю версию scala или загруженную версию, измените ее на совместимую версию.Также включите эту строку кода
libraryDependencies += "org.scala-lang" % "scala-library" % "2.11.6"
2.11.x - это ваша версия scala
2.Файловая иерархия Убедитесь, что ваш файл Scala находится в каталоге / src / main / scala
3.Terminal Если ваша IDE позволяет вам запустить терминал внутри него, запустите его (IntelliJ разрешает, не уверен в Eclipse или любом другом) ИЛИ Перейдите в терминал и измените каталог на каталог вашего проекта
, затем запустите:
sbt clean
Это удалит все библиотеки, загруженные ранее, или папки, созданные после компиляции.
sbt package
Это упакует ваши файлы в один файл jar в target / scala- / package
Затем отправьте в spark:
spark-submit target/scala-<version>/<.jar file> --class "<ClassName>(In your case , com.jsonReader.json)" --jars target/scala-<version>/<.jar file> --master local[*]
Обратите внимание, что -- если указано в программе, здесь не требуется