Используйте оконную функцию для подсчета количества строк для каждой комбинации A / B
, а затем отфильтруйте результат, чтобы сохранить только уникальные строки:
import pyspark.sql.functions as f
df.selectExpr(
'*',
'count(*) over (partition by A, B) as cnt'
).filter(f.col('cnt') == 1).drop('cnt').show()
+---+---+-----+
| A| B| C|
+---+---+-----+
|bar| 5|three|
+---+---+-----+
Или другой вариант, используя pandas_udf
:
from pyspark.sql.functions import pandas_udf, PandasUDFType
# keep_unique returns the data frame if it has only one row, otherwise
# drop the group
@pandas_udf(df.schema, PandasUDFType.GROUPED_MAP)
def keep_unique(df):
return df.iloc[:0] if len(df) > 1 else df
df.groupBy('A', 'B').apply(keep_unique).show()
+---+---+-----+
| A| B| C|
+---+---+-----+
|bar| 5|three|
+---+---+-----+