Прометей оповещения менеджер по федерации - PullRequest
1 голос
/ 28 марта 2020

У нас есть несколько кластеров, в которых работают наши приложения. Мы хотели бы настроить кластер централизованного мониторинга, который может очищать метрики от остальной части кластера с помощью федерации Prometheus.

Поэтому для этого мне нужно установить сервер Prometheus в каждом кластере и установить сервер Prometheus через федерацию в Центральный кластер. Я также установлю Графану в центральный кластер, чтобы визуализировать метрики, которые мы собираем с остального сервера Прометей.

Так что вопрос:

  1. Где следует Я настраиваю диспетчер оповещений? Только для Центрального кластера или каждого кластера должен быть также диспетчер предупреждений?

  2. Каков наилучший способ оповещения при использовании федерации?

  3. Хотя я я могу использовать входной контроллер, чтобы выставить каждый сервер Прометей? Какова наилучшая практика для обеспечения связи между сервером Prometheus и федерацией в k8s?

1 Ответ

0 голосов
/ 30 марта 2020

На основании этого блога

Где мне установить диспетчер предупреждений? Только для Центрального кластера или для каждого кластера должен быть также диспетчер оповещений?

Какова наилучшая практика оповещения при использовании федерации?

Здесь ответ будет таким: на каждом кластере .

Если данные, необходимые для оповещения, перемещаются с одного Прометея на другой, то вы добавили дополнительную точку отказа. Это особенно опасно, когда речь идет о каналах глобальной сети, таких как inte rnet. Насколько это возможно, вы должны попытаться сделать предупреждение sh как можно глубже в иерархии федерации. Например, оповещение о сбое цели должно быть настроено на Прометей, очищающий эту цель, а не глобальный Прометей, который может быть удален на несколько шагов.


Хотя я могу использовать входной контроллер, чтобы выставить каждый сервер Прометей? Какова лучшая практика для обеспечения связи между сервером Prometheus и федерацией в k8s?

Я думаю, это зависит от варианта использования, в каждом do c я проверял, что они просто используют цели в scrape_configs.static_configs в prometheus.yml


как здесь

scrape_configs:
  - job_name: 'federate'
    scrape_interval: 15s

    honor_labels: true
    metrics_path: '/federate'

    params:
      'match[]':
        - '{job="prometheus"}'
        - '{__name__=~"job:.*"}'

    static_configs:
      - targets:
        - 'source-prometheus-1:9090'
        - 'source-prometheus-2:9090'
        - 'source-prometheus-3:9090'

ИЛИ


как здесь

prometheus.yml:
    rule_files:
      - /etc/config/rules
      - /etc/config/alerts

    scrape_configs:
      - job_name: 'federate'
        scrape_interval: 15s

        honor_labels: true
        metrics_path: '/federate'

        params:
          'match[]':
            - '{job="prometheus"}'
            - '{__name__=~"job:.*"}'

        static_configs:
          - targets:
            - 'prometheus-server:80'

Кроме того, стоит проверить, как они сделали это в этом учебнике , где они использовали helm для сборки Кластер центрального мониторинга с двумя серверами Прометей в двух кластерах.

enter image description here

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...