• 1000 * по сравнению с теми, что предоставлены prometheus Grafana.
Контролируемый модуль приложения имеет три контейнера. Kubernetes-dashboard показывает, что потребление памяти для этого pod'а составляет ~ 250MB, стандартный prometheus-operator dashboard отображает почти ровно двойное значение для потребления памяти ~ 500MB.
Сначала мы думали, что в нашей настройке мониторинга может быть некоторая неправильная конфигурация. Поскольку prometheus-operator установлен как стандартная управляющая диаграмма, Daemon Set для экспортера узлов гарантирует, что на каждом узле развернут только один экспортер, поэтому дублирующиеся экспортеры не должны быть причиной. Однако после переноса нашего кластера в разные пулы узлов я заметил, что, когда наше приложение работает на пуле пользовательских узлов вместо пула системных узлов, показатели точно совпадают в обоих инструментах. Я знаю, что в пуле системных узлов работают CoreDNS и tunnelfront, но я предполагаю, что они работают как отдельные компоненты, также я знаю, что в целом это не лучший выбор для запуска инфраструктуры и приложений в одном пуле узлов.
Однако , Мне все еще интересно, почему запуск приложения под системным пулом узлов приводит к удвоению метрик Prometheus?