Как освободить память в сеансе Pyspark - PullRequest
0 голосов
/ 03 июля 2019

Вот пример моего кода:

ses = SparkSession.Builder().config(conf=conf).enableHiveSupport().getOrCreate()
res = ses.sql("select * from tbl")
res.write.format("hive").saveAsTable("tablename"), mode='append')
res.unpersist()

Но после выполнения htop показывает, что этот процесс использует 63 ГБ ОЗУ.Также попробовал ses.catalog.clearCache(), ничего, еще 63ГБ использовал.

Как освободить память без повторной инициализации сеанса искры?

Редактировать.Также я попытался удалить объект res, все еще 63gb в htop.Тоже попробовал, ничего не печатает:

for (id, rdd) in ses.sparkContext._jsc.getPersistentRDDs().items():
    print(id, rdd)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...