Вы можете попробовать это:
Ввод:
val rdd = sc.parallelize(data)
//data: Array[org.apache.spark.sql.Row] = Array([AAA,a,100], [BBB,b,200], [CCC,c,300])
val result = rdd.map(r => myClass(r.getString(0) +'-'+ r.getString(1),r.getLong(2)))
//result: org.apache.spark.rdd.RDD[myClass] = MapPartitionsRDD[15]
Выход:
result.collect.foreach(println)
//myClass(AAA-a,100)
//myClass(BBB-b,200)
//myClass(CCC-c,300)