Вы можете использовать функцию explode
как
import org.apache.spark.sql.functions._
val resuldDF = df.select($"GroupID", explode($"Name_of_books").as("Name_of_books")
или withColumn
val resuldDF = df.withColumn("Name_of_books", explode($"Name_of_books"))
Это работает, если столбец является массивом или картой, если у вас есть строковое значение, разделенное запятой, Вам нужно split
сначала и применить explode
как
val resuldDF = df.select($"GroupID", explode(split($"Name_of_books", ",")))
Надеюсь, это поможет!