Java 12 совместим с Java 13. А Java 13 совместим с Scala версиями 2.13.1
и 2.12.9
. Если возможно, используйте самое большее Java 11 (что совместимо с Scala версиями 2.13.0, 2.12.4, 2.11.12, 2.10.7
, так что вам должно быть хорошо с вашим 2.11.12
.
Тем не менее, похоже, что Spark 3.0 будет поддерживать JDK9 + SPARK-24417
Также: пожалуйста, измените scala.binary.version
в вашем pom.xml
, оно должно быть
<scala.binary.version>2.11</scala.binary.version>
вместо
<scala.binary.version>2.11.12</scala.binary.version>
С этим изменением вы можете вызывать зависимости без явной версии Scala, то есть вместо
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.4.5</version>
<scope>compile</scope>
</dependency>
вы можете сказать
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_${scala.binary.version}</artifactId>
<version>2.4.5</version>
<scope>compile</scope>
</dependency>