Scala имеет функцию dropDuplicates
для удаления дубликатов на основе предоставленных вами столбцов.Простой пример:
import org.apache.spark.sql.functions._
val df = Seq (
( 1, 1, 1234, "12010", "null" ),
( 1, 2, 1234, "22201", "null" ),
( 2, 1, 2345, "12011", "null" ),
( 2, 2, 2345, "12011", "null" ),
( 2, 3, 2345, "32011", "yellow" ),
( 2, 4, 2345, "32011", "yellow" ),
( 3, 1, 3456, "4012 ", "null" ),
( 3, 2, 3456, "52012", "green" ),
( 4, 1, 4567, "52012", "green" ),
( 4, 2, 4567, "52013", "null" )
)
.toDF( "identifier1", "identifier2", "groupid", "date", "colour" )
//df.show
// Drop the duplicates based on date and identifier1 columns
df
.dropDuplicates(Seq("date", "identifier1"))
.show
Мои результаты:
Я бы сказал, что из вашего примера не совсем ясно, что именнотребуется, но, надеюсь, это окажется полезной отправной точкой.Подробнее о dropDuplicates
здесь .