Когда я даю следующий оператор Spark SQL в spark-shell, он работает нормально. Но тот же оператор выдает ошибку во время сборки, когда я пытаюсь создать файл jar с помощью sbt.
val df3=df1.join(df2).where($"columnname1" === $"columnname2")
В чем причина?
Ошибка I получаю: value $ is not a member of StringContext
Я импортирую следующее. Нужно ли мне импортировать что-нибудь еще специально для сборки?
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._
На данный момент я изменил строку следующим образом, и она отлично собирается и запускается тоже хорошо.
val df3=df1.join(df2).where(df1("columnname1") === df2("columnname2"))
Я хотел бы знать, почему предыдущий синтаксис не работает в сборке и что мне не хватает в сборке.