Я провожу некоторые анализы на кластере Spark, который демонстрирует странное поведение - некоторые из 20+ узлов иногда перестают отвечать на запросы. Мы работаем над выяснением причины этого, но я также отчаянно нуждаюсь в обходном пути, когда это произойдет.
Допустим, я узнал, что узел foo не отвечает, и хочу запустить свою работу на всех других узлах. Я хочу сделать что-то вроде
sc = SparkContext()
sc.exclude_nodes(["foo"])
в моем скрипте (который я отправляю с помощью spark-submit).
Есть ли способ сделать это?