в версиях Spark> 2 вы обычно должны использовать SparkSession
.Смотрите также https://spark.apache.org/docs/2.3.1/api/scala/#org.apache.spark.sql.SparkSession
и тогда вы сможете
val spark:SparkSession = ???
val location = "hdfs://ipaddress/user/hdfs/{0}/ps/{1}/FS/2018-10-17".format(line,ps)
spark.read.json(location)
прочитать все ваши файлы json в каталоге.
Также я думаю, что вы тожеполучите еще одну ошибку компиляции в
for (each <- files) {
var ps_data = sqlContext.read.json(each)
}
println(ps_data.show())
для ps_data
, находящегося вне области действия.
Если вам нужно по какой-то причине использовать SparkContext
, оно действительно должно быть в spark-core.Вы пытались перезапустить IDE, очистить кеш и т. Д.?
РЕДАКТИРОВАТЬ: я просто замечаю, что build.sbt
, вероятно, не находится в каталоге, откуда вы вызываете sbt package
, поэтому sbt не будет забирать