Я применяю много преобразований к Spark DataFrame (filter, groupBy, join).Я хочу иметь количество строк в DataFrame после каждого преобразования.
В настоящее время я подсчитываю количество строк, используя функцию count () после каждого преобразования, но это вызывает действие каждый раз, которое на самом деле не соответствует действительности.оптимизирован.
Мне было интересно, есть ли способ узнать количество строк без необходимости инициировать другое действие, отличное от исходного задания.