У меня есть пример кадра данных Spark следующим образом:
val mydf1 = Seq((1, "a"), (2, "b"),(3, "c"),(4, "d"),(5, "e")).toDF("id", "col2")
scala> mydf1.show
+---+----+
| id|col2|
+---+----+
| 1| a|
| 2| b|
| 3| c|
| 4| d|
| 5| e|
+---+----+
Я пытаюсь добавить вышеупомянутый кадр данных в утилиту Java HashMap следующим образом:
import java.util._
val jmap = new java.util.HashMap[Integer, String]()
mydf1.rdd.foreach{case Row(id: Integer, col2: String) => jmap.put(id, col2)}
Но после того, как вышекод Я до сих пор не вижу, как идентификаторы и столбцы добавляются в Jmap HashMap, как показано ниже:
scala> jmap.size
res13: Int = 0
Я что-то упустил в своей реализации?
Я знаю, что могу использовать конвертеры Scala, но по какой-то причине я не хочу его использовать.