Я начинаю работать с Apache Spark (в Windows 10), и все работает не так, как ожидалось.При использовании IntelliJ IDEA Ultimate 2019.1 все отображается чисто (без красного подчеркивания), но когда я пытаюсь создать новый SparkContext, используя
val sc = new SparkContext("local[*]", "RatingsCounter")
, я получаю сообщение об ошибке
Exception in thread "main" java.lang.NoSuchMethodError: \
scala.Predef$.refArrayOps([Ljava/lang/Object;)\
Lscala/collection/mutable/ArrayOps;
at org.apache.spark.util.Utils$
.stringToSeq(Utils.scala:2664)
Версии выглядят следующим образом:
Scala 2.12.8
Java 1.8.0_171
Spark 2.4.1
Google показывает некоторые ответы, но ни один из них не отражает мою проблему.