Прометей для обслуживания Tensorflow - PullRequest
0 голосов
/ 24 октября 2018

Как использовать экспортер Prometheus для обслуживания Tensorflow?В соответствии с 1,11 порция TF поддерживает метрики Prometheus: https://github.com/tensorflow/serving/releases/tag/1.11.0

Я запускаю докер из примера https://www.tensorflow.org/serving/docker и следующего:

Docker Run -P 8501: 8501-p 8500: 8500 \ --mount type = bind, \ source = / tmp / tfserving / Обслуживание / tensrflow_serving / servables / тензор потока / testdata / сохраненный_модель_half_plus_two_cpu, \ target = / models / half_plus_two \ -e MODEL_NAME = half_plus_twoОбслуживание &

Файл конфигурации Prometheus: глобальный: scrape_interval: 10 с оценочный_интервал: 10 с external_labels: monitor: 'tf-Обслуживание-монитор'

scrape_configs: - имя-задания:'ensorflow 'scrape_interval: 5s static_configs: 5s- цели: ['localhost: 8501']

Но Прометей не может найти метрики, выставленные обслуживанием.Есть ли определенный порт, который я должен открыть на докере, или какой-то параметр, который я должен передать серверу TF?

1 Ответ

0 голосов
/ 25 октября 2018

В соответствии с примечаниями к выпуску, которые вы связали с TensorFlow экспортирует метрики Prometheus в /monitoring/prometheus/metrics (в отличие от значения по умолчанию Prometheus /metrics).Поэтому, по крайней мере, вам нужно добавить metrics_path в вашу конфигурацию:

scrape_configs:
  - job_name: 'tensorflow'
    scrape_interval: 5s
    metrics_path: '/monitoring/prometheus/metrics'
    static_configs:
      - targets: ['localhost:8501']

Но сначала убедитесь, что вы можете увидеть экспортированные метрики в http://localhost:8501/monitoring/prometheus/metrics в вашем браузере.В противном случае возитесь (с вашим браузером), пока не найдете правильный URL (и не отразите это в вашей конфигурации).

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...