Вам не нужен метод main для запуска скрипта Scala в оболочке spark.
1. Запишите все шаги в файле и сохраните как file.scala
2. Запустите оболочку spark, как spark-shell -i C: \ spark \ file.scala
Ниже приведен пример кода, который я написал в file.scala
val rdd=sc.textFile("C:\\Users\\manoj kumar dhakad\\Desktop\\scores.txt")
rdd.collect.foreach(println)
Ниже приведен способ его отправки.
spark-shell -i C:\spark\file.scala
Пример вывода
rdd: org.apache.spark.rdd.RDD[String] = C:\Users\manoj kumar dhakad\Desktop\scores.txt MapPartitionsRDD[1] at textFile at <console>:24
75,89,150,135,200,76,12,100,150,28,178,189,167,200,175,150,87,99,129,149,176,200,87,35,157,189