Я пытаюсь выяснить, есть ли способ изящно удалить рабочий узел из кластера Spark во время выполнения.Например, способ сказать планировщику не назначать новые задачи работнику, чтобы я мог удалить его после выполнения текущей работы.Любая идея?