Azure АКС Прометей-оператор двойной метрики - PullRequest
0 голосов
/ 10 июля 2020
• 1000 * по сравнению с теми, что предоставлены prometheus Grafana.

Контролируемый модуль приложения имеет три контейнера. Kubernetes-dashboard показывает, что потребление памяти для этого pod'а составляет ~ 250MB, стандартный prometheus-operator dashboard отображает почти ровно двойное значение для потребления памяти ~ 500MB.

Сначала мы думали, что в нашей настройке мониторинга может быть некоторая неправильная конфигурация. Поскольку prometheus-operator установлен как стандартная управляющая диаграмма, Daemon Set для экспортера узлов гарантирует, что на каждом узле развернут только один экспортер, поэтому дублирующиеся экспортеры не должны быть причиной. Однако после переноса нашего кластера в разные пулы узлов я заметил, что, когда наше приложение работает на пуле пользовательских узлов вместо пула системных узлов, показатели точно совпадают в обоих инструментах. Я знаю, что в пуле системных узлов работают CoreDNS и tunnelfront, но я предполагаю, что они работают как отдельные компоненты, также я знаю, что в целом это не лучший выбор для запуска инфраструктуры и приложений в одном пуле узлов.

Однако , Мне все еще интересно, почему запуск приложения под системным пулом узлов приводит к удвоению метрик Prometheus?

1 Ответ

1 голос
/ 04 сентября 2020

Я столкнулся с аналогичной проблемой (aks v1.14.6, prometheus-operator v0.38.1), где все мои значения были умножены на коэффициент 3. Оказывается, вы должны не забыть удалить лишние конечные точки с именем prometheus-operator-kubelet, которые создаются в пространстве имен kube-system во время установки перед тем, как вы удаляете / переустанавливаете prometheus-operator, поскольку Prometheus объединяет метри c типы, собранные для каждой конечной точки.

Войдите в Prometheus -pod и проверьте страницу статуса. Конечных точек должно быть столько, сколько узлов в кластере, иначе у вас может быть избыток конечных точек:

Страница статуса Prometheus

...