Вам нужно инициализировать экземпляр, используя SQLContext (версия spark <2.0) или SparkSession (версия spark> = 2.0), чтобы использовать методы, предоставляемые Spark.
Чтобы инициализировать экземпляр spark для версии spark <2.0, используйте: </p>
import org.apache.spark.sql._
val spark = new SQLContext(sc)
Для инициализации экземпляра spark для версии spark> = 2.0 используйте:
val spark = new SparkConf().setAppName("SparkSessionExample").setMaster("local")
Для чтения csv с использованием пакета spark 1.6 и базы данных spark-csv: val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").option("inferSchema", "true").load("data.csv")