У меня спарк 2.4.0 и скала 2.11.12 в Win10.С помощью spark-shell я загрузил CSV-файл
import java.io._
import java.io.{File, PrintWriter}
import org.apache.spark.ml.Pipeline
import org.apache.spark.ml.feature.VectorAssembler
import org.apache.spark.ml.feature.{IndexToString, StringIndexer, VectorIndexer}
val data=spark.read.format("csv").option("delimiter",",").option("header","true").option("inferSchema","true").load("E:\\...\\adult3.csv")
Затем я попытался вставить его в конвейер ниже, но получил только ошибку
val stages = Array(
new StringIndexer().setInputCol("AAC").setOutputCol("AAC_"),
new StringIndexer().setInputCol("AAE").setOutputCol("AAE_"),
new StringIndexer().setInputCol("AAG").setOutputCol("AAG_"),
new StringIndexer().setInputCol("AAH").setOutputCol("AAH_"),
new StringIndexer().setInputCol("AAI").setOutputCol("AAI_"),
new StringIndexer().setInputCol("AAJ").setOutputCol("AAJ_"),
new StringIndexer().setInputCol("AAK").setOutputCol("AAK_"),
new StringIndexer().setInputCol("AAO").setOutputCol("AAO_"))
val model=new Pipeline().setStages(stages).fit(data)
В китайской части говорится, что «система не может найти путь».На самом деле я не мог найти путь.Я что-то упустил?