SBT - это инструмент для сборки (который мне нравится работать в Linux), который не обязательно подразумевает использование SPARK.Так получилось, что он используется как IntelliJ для приложений Spark.
Вы можете пакетировать и запускать приложение в одной JVM под консолью SBT, но не в масштабе.Таким образом, если вы создали приложение Spark с указанными зависимостями, SBT скомпилирует код с package и создаст JAR-файл с необходимыми зависимостями и т. Д. Для запуска локально.
Вы также можете использовать опцию assembly в SBT, которая создает uber jar или fat jar со всеми зависимостями, содержащимися в jar, которые вы загружаете в кластер и запускаете черезвызывая spark-submit .Итак, еще раз, если вы создали приложение Spark с указанными зависимостями, SBT выполнит сборку, скомпилирует код и создаст файл Uber JAR со всеми необходимыми зависимостями и т. Д., За исключением внешних файлов, которые необходимо отправить в Workers, чтобызапустить на своем кластере (в общем).