Можно ли узнать ресурсы, используемые конкретной работой Spark? - PullRequest
0 голосов
/ 26 сентября 2019

Я опираюсь на идеи использования мультитенантного кластера Spark.Кластер выполняет задания по требованию для определенного арендатора.

Можно ли «знать» конкретные ресурсы, используемые конкретным заданием (по причинам оплаты)?Например, если задание требует, чтобы несколько узлов в kubernetes были автоматически распределены, можно ли тогда отслеживать, какие задания Spark (и арендатор в конце) инициировали такое распределение ресурсов?Или задания всегда распределяются равномерно по выделенным ресурсам?

Пытался найти информацию на сайте Apache Spark и в других местах в Интернете, но безуспешно.

1 Ответ

0 голосов
/ 26 сентября 2019

См. https://spark.apache.org/docs/latest/monitoring.html

Вы можете сохранить данные с сервера Spark History как json, а затем написать свой собственный материал для расчета ресурсов.

Вы имеете в виду Spark App.

...