Spark History Server предоставляет REST API интерфейс . К сожалению, он предоставляет только возможности мониторинга для приложений, заданий, этапов и т. Д.
Существует также интерфейс REST Submission , который предоставляет возможность отправлять, уничтожать и проверять состояние приложений,Это недокументированный AFAIK, и поддерживается только в автономных кластерах Spark и Mesos, без YARN. (Наверное, поэтому на экране YARN для Spark нет ссылки «kill» на пользовательском интерфейсе Jobs.)
Так что вы можете попробовать использовать этот «скрытый» API, но если вам известен URL-адрес Spark UI вашего приложения иидентификатор работы, которую вы хотите убить, более простой способ выглядит так:
$ curl -G http://<Spark-Application-UI-host:port>/jobs/job/kill/?id=<job_id>
Поскольку я не работаю с клеем, мне было бы интересно узнать, как он будет реагировать, потому чтоубийство обычно приводит к org.apache.spark.SparkException: Job <job_id> cancelled
.