Учитывая, что документация pySpark для SQLContext
говорит: «Начиная с Spark 2.0, это заменяется SparkSession».
Как удалить все кэшированные таблицы из кэша в памяти без использования SQLContext
?
Например, где spark
представляет собой SparkSession
, а sc
представляет собой sparkContext
:
from pyspark.sql import SQLContext
SQLContext(sc, spark).clearCache()