Существует ли определенный стандарт для эффективного управления памятью в Spark
Что если я в итоге создам пару DataFrames или RDD, а затем продолжу сокращать эти данные с помощью объединений и агрегаций ??
Будут ли эти DataFrames или RDD по-прежнему удерживать ресурсы до завершения сеанса или задания ??