Очевидно, что в документации есть покрытие :
spark.sparkContext.addJar("./target/scala-2.11/hello-world_2.11-1.0.jar")
Я думаю, что имеет смысл, что все, что вы пишете как внешний код Spark, считается зависимостью. Таким образом, простое sbt publishLocal
, а затем указание на путь кувшина в приведенной выше команде рассортирует вас.
Мое основное замешательство произошло из-за того, что мне не нужно было делать это очень долго, пока какой-то момент этот механизм пнул его. Скорее противоречивое поведение, я бы сказал.
Личное наблюдение после работы с этой установкой заключается в том, что вам кажется, что вам нужно публиковать sh банку только один раз. Я несколько раз менял свой код, и эти изменения отражаются, хотя я не публиковал фляги для новых изменений, которые я сделал. Это делает всю задачу единой. Хотя все еще сбивает с толку.