Я студент, я впервые изучаю spark. Когда я настраиваю среду на intellj и запускаю spark, возникает ошибка, я не знаю, как ее решить.
Exception in thread "main" java.lang.VerifyError: class scala.collection.mutable.WrappedArray overrides final method toBuffer.()Lscala/collection/mutable/Buffer;
at java.lang.ClassLoader.defineClass1(Native Method)
at java.lang.ClassLoader.defineClass(ClassLoader.java:763)
at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
at java.net.URLClassLoader.defineClass(URLClassLoader.java:468)
at java.net.URLClassLoader.access$100(URLClassLoader.java:74)
at java.net.URLClassLoader$1.run(URLClassLoader.java:369)
at java.net.URLClassLoader$1.run(URLClassLoader.java:363)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:362)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:59)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:53)
at com.txf.LoadLibSVMFile$.delayedEndpoint$com$txf$LoadLibSVMFile$1(txf.scala:21)
at com.txf.LoadLibSVMFile$delayedInit$body.apply(txf.scala:16)
at scala.Function0.apply$mcV$sp(Function0.scala:39)
Он скомпилирован с помощью jdk-1.8.0 и scala-2.10.7 для intellj. Следующий код является моим тестовым кодом.
package com.txf
import org.apache.spark.{SparkConf, SparkContext}
object LoadLibSVMFile extends App{
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.util.MLUtils
import org.apache.spark.rdd.RDD
val conf = new SparkConf().setAppName("LogisticRegressionMail").setMaster("local")
val sc = new SparkContext(conf)
val examples: RDD[LabeledPoint] = MLUtils.loadLibSVMFile(sc, "hello.txt")
println(examples.first)
}
Заранее спасибо.