Как мне этого добиться?
from pyspark.sql import functions as F
from pyspark.context import SparkContext
from pyspark.sql.session import SparkSession
sc = SparkContext('local')
spark = SparkSession(sc)
grouped=df.groupby([col list]).agg(F.count([col list]))
Я читал похожие вопросы по stackoverflow, но не смог найти точного ответа.
Даже если я пытаюсь поставить один столбец
grouped=dfn.groupby('col name').agg(F.count('col name'))
Я получаю -
py4j \ java_collections.py ", строка 500, в конвертировании для элемента в объекте: TypeError: объект 'type' не повторяется
Ссылка на вопрос - Столбец pyspark не повторяется
Я заранее не знаю имен столбцов и должен предоставить список в качестве входных данных для группы с помощью функций agg.