У меня есть несколько искровых тестов, которые я нормально выполняю удаленно через maven на spark 1.6.0 и использую scala. Теперь я хочу запустить эти тесты на spark2. Проблема клоудера, которая по умолчанию использует спарк 1.6. Откуда cloudera берет эту версию и что мне нужно сделать, чтобы изменить версию spark по умолчанию? Кроме того, в одном кластере присутствуют spark 1.6 и spark 2. Обе версии искры присутствуют сверху пряжи. Конфигурационные файлы hadoop присутствуют в кластере, который я использую для запуска тестов в тестовой среде, и вот так я получаю контекст spark.
def getSparkContext(hadoopConfiguration: Configuration): SparkContext ={
val conf = new SparkConf().setAppName("SparkTest").setMaster("local")
hadoopConfiguration.set("hadoop.security.authentication", "Kerberos")
UserGroupInformation.loginUserFromKeytab("alice", "/etc/security/keytab/alice.keytab")
val sc=new SparkContext(conf)
return sc
}
Можно ли указать версию в файлах conf или в самом cloudera?