ошибка "искра не найдена" в команде пакета scala - PullRequest
0 голосов
/ 05 декабря 2018

Я собираю пакет для своей программы scala.

Я импортировал пакеты, проверил зависимости библиотек и ревизии в build.sbt, но все еще получаю сообщение об ошибке "Искра не найдена".Любая помощь будет оценена.Пожалуйста, дайте мне знать, если я что-то упустил.

используются следующие конфигурации: scala 2.11.8 hadoop 3.0.0

sam@testlab:~/mymooc-workspace/MyProject$ cat src/main/scala/MyProgram.scala 
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object MyProgram {
  def main(args: Array[String]): Unit = {
   val conf = new SparkConf().setAppName("scala spark")
   val sc = new SparkContext(conf)
   val df = spark.read
  .format("csv")
  .option("header","true")
  .option("inferSchema","true")
  .option("mode","failfast")
  .load("/home/sam/SparkScala/aadhar_dataset.csv")

  df.show(10,false) 
  }
}
sam@testlab:~/mymooc-workspace/MyProject$ 



sam@testlab:~/mymooc-workspace/MyProject$ sbt package -v
[process_args] java_version = '8'
# Executing command line:
java
-Xms1024m
-Xmx1024m
-XX:ReservedCodeCacheSize=128m
-XX:MaxMetaspaceSize=256m
-jar
/usr/share/sbt/bin/sbt-launch.jar
package

[info] Loading settings from plugins.sbt ...
[info] Loading global plugins from /home/sam/.sbt/1.0/plugins
[info] Loading project definition from /home/sam/mymooc-workspace/MyProject/project
[info] Loading settings from build.sbt ...
[info] Set current project to project (in build file:/home/sam/mymooc-workspace/MyProject/)
[info] Updating ...
[info] Done updating.
[warn] Found version conflict(s) in library dependencies; some are suspected to be binary incompatible:
[warn]  * commons-net:commons-net:2.2 is selected over 3.1
[warn]      +- org.apache.spark:spark-core_2.11:2.1.0             (depends on 2.2)
[warn]      +- org.apache.hadoop:hadoop-common:2.2.0              (depends on 3.1)
[warn]  * com.google.guava:guava:14.0.1 is selected over 11.0.2
[warn]      +- org.apache.curator:curator-recipes:2.4.0           (depends on 14.0.1)
[warn]      +- org.apache.curator:curator-client:2.4.0            (depends on 14.0.1)
[warn]      +- org.apache.curator:curator-framework:2.4.0         (depends on 14.0.1)
[warn]      +- org.apache.hadoop:hadoop-hdfs:2.2.0                (depends on 11.0.2)
[warn]      +- org.apache.hadoop:hadoop-common:2.2.0              (depends on 11.0.2)
[warn] Run 'evicted' to see detailed eviction warnings
[info] Compiling 1 Scala source to /home/sam/mymooc-workspace/MyProject/target/scala-2.11/classes ...
[error] /home/sam/mymooc-workspace/MyProject/src/main/scala/MyProgram.scala:11:13: not found: value spark
[error]    val df = spark.read
[error]             ^
[error] one error found
[error] (Compile / compileIncremental) Compilation failed
[error] Total time: 151 s, completed Dec 5, 2018 10:23:26 AM
sam@testlab:~/mymooc-workspace/MyProject$ 

sam@testlab:~/mymooc-workspace/MyProject$ cat build.sbt 
name := "project"
version := "1.0"
scalaVersion := "2.11.8"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.1.0",
  "org.apache.spark" %% "spark-sql" % "2.1.0"
)


sam@testlab:~/mymooc-workspace/MyProject$ 

1 Ответ

0 голосов
/ 05 декабря 2018

Я не смог найти никакого значения, объявленного в имени val spark=?, но вы используете его в своей программе.

Из вашего фрагмента кода я могу понять, что вы пытаетесь прочитать файл CSVиспользуя SparkSession, но вы сами не объявили / не создали SparkSession.Перед чтением файла попробуйте следующее:

import org.apache.spark.sql.SparkSession

val spark = SparkSession.builder().getOrCreate()
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...