Я пытаюсь выяснить, когда Spark очищается после приложения, которое сохраняет некоторые данные на диск.Глядя на код, кажется, что ContextCleaner.keepCleaning () использует наилучший подход к очистке (последний, когда вызывается SparkContext.stop ()).
Я не мог понять, что происходит, еслиСбой очистки, в частности, есть ли задача обслуживания, которая бы справилась с этим?
Если нет, каков рекомендуемый способ обеспечения такой очистки (мы могли бы создать демона, но как мы должны настроить его так, чтобы оннайдет нужные файлы и требуется ли это?).
Нам нужен детерминистский механизм, поскольку кластер обрабатывает данные, которые могут содержать PII, и мы должны предоставить гарантии того, что он будет очищен для поддержания соответствия.
Спасибо!