Pyspark позволяет создавать словарь, когда из фрейма данных возвращается одна единственная строка, используя следующий подход.
t=spark.sql("SET").withColumn("rw",expr("row_number() over(order by key)")).collect()[0].asDict()
print(t)
print(t["key"])
print(t["value"])
print(t["rw"])
print("Printing using for comprehension")
[print(t[i]) for i in t ]
Results:
{'key': 'spark.app.id', 'value': 'local-1594577194330', 'rw': 1}
spark.app.id
local-1594577194330
1
Printing using for comprehension
spark.app.id
local-1594577194330
1
Я пытаюсь сделать то же самое в scala -spark. Это возможно с использованием подхода класса case.
case class download(key:String, value:String,rw:Long)
val t=spark.sql("SET").withColumn("rw",expr("row_number() over(order by key)")).as[download].first
println(t)
println(t.key)
println(t.value)
println(t.rw)
Результаты:
download(spark.app.id,local-1594580739413,1)
spark.app.id
local-1594580739413
1
В реальной проблеме у меня почти 200+ столбцов, и я не хочу использовать подход класса case. Я пытаюсь сделать что-то вроде ниже, чтобы избежать варианта класса case.
val df =spark.sql("SET").withColumn("rw",expr("row_number() over(order by key)"))
(df.columns).zip(df.take(1)(0))
, но получаю ошибку.
<console>:28: error: type mismatch;
found : (String, String, Long)
required: Iterator[?]
(df.columns.toIterator).zip(df.take(1)(0))
Есть ли способ решить эту проблему.