Как использовать экспортер Prometheus для обслуживания Tensorflow?В соответствии с 1,11 порция TF поддерживает метрики Prometheus: https://github.com/tensorflow/serving/releases/tag/1.11.0
Я запускаю докер из примера https://www.tensorflow.org/serving/docker и следующего:
Docker Run -P 8501: 8501-p 8500: 8500 \ --mount type = bind, \ source = / tmp / tfserving / Обслуживание / tensrflow_serving / servables / тензор потока / testdata / сохраненный_модель_half_plus_two_cpu, \ target = / models / half_plus_two \ -e MODEL_NAME = half_plus_twoОбслуживание &
Файл конфигурации Prometheus: глобальный: scrape_interval: 10 с оценочный_интервал: 10 с external_labels: monitor: 'tf-Обслуживание-монитор'
scrape_configs: - имя-задания:'ensorflow 'scrape_interval: 5s static_configs: 5s- цели: ['localhost: 8501']
Но Прометей не может найти метрики, выставленные обслуживанием.Есть ли определенный порт, который я должен открыть на докере, или какой-то параметр, который я должен передать серверу TF?