Я пытаюсь внедрить клиент Prometheus в приложение Django. Но вывод, который я получаю, является недействительным, поэтому сервер Prometheus не может проанализировать метрики.
Вот мое представление Prometheus API
from rest_framework import status
from rest_framework.views import APIView
from rest_framework.response import Response
from prometheus_client import (
multiprocess,
CollectorRegistry,
generate_latest,
CONTENT_TYPE_LATEST,
)
class PrometheusAPIView(APIView):
def get(self, request, format=None):
registry = CollectorRegistry()
multiprocess.MultiProcessCollector(registry)
return (
Response(
generate_latest(registry),
status=status.HTTP_200_OK,
content_type=CONTENT_TYPE_LATEST,
)
)
, а вот шаблон URL
urlpatterns = [
url(r'^metrics/', PrometheusAPIView.as_view()),
]
Когда я скручиваю конечную точку metrics/
, я получаю
❯ curl localhost:8000/metrics/
"# HELP model_latency Multiprocess metric\n# TYPE model_latency histogram\nmodel_latency_bucket{app=\"app-name\",le=\"10.0\"} 4.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.1\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.005\"} 0.0\nmodel_latency_sum{app=\"app-name\"} 7.6447835210005906\nmodel_latency_bucket{app=\"app-name\",le=\"0.25\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.75\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"7.5\"} 4.0\nmodel_latency_bucket{app=\"app-name\",le=\"5.0\"} 4.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.5\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"2.5\"} 3.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.075\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.01\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.05\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"+Inf\"} 4.0\nmodel_latency_bucket{app=\"app-name\",le=\"1.0\"} 0.0\nmodel_latency_bucket{app=\"app-name\",le=\"0.025\"} 0.0\nmodel_latency_count{app=\"app-name\"} 4.0\n# HELP log_count_total Multiprocess metric\n# TYPE log_count_total counter\nlog_count_total{app=\"app-name\",level=\"INFO\"} 8.0\n"
Но то, что я ожидаю, похоже на
# HELP model_latency Multiprocess metric
# TYPE model_latency histogram
model_latency_bucket{app="app-name",le="10.0"} 2.0
model_latency_bucket{app="app-name",le="0.1"} 0.0
model_latency_bucket{app="app-name",le="0.005"} 0.0
model_latency_sum{app="app-name"} 4.431863597000756
model_latency_bucket{app="app-name",le="0.25"} 0.0
model_latency_bucket{app="app-name",le="0.75"} 0.0
model_latency_bucket{app="app-name",le="7.5"} 2.0
model_latency_bucket{app="app-name",le="5.0"} 2.0
model_latency_bucket{app="app-name",le="0.5"} 0.0
model_latency_bucket{app="app-name",le="2.5"} 1.0
model_latency_bucket{app="app-name",le="0.075"} 0.0
model_latency_bucket{app="app-name",le="0.01"} 0.0
model_latency_bucket{app="app-name",le="0.05"} 0.0
model_latency_bucket{app="app-name",le="+Inf"} 2.0
model_latency_bucket{app="app-name",le="1.0"} 0.0
model_latency_bucket{app="app-name",le="0.025"} 0.0
model_latency_count{app="app-name"} 2.0
# HELP log_count_total Multiprocess metric
# TYPE log_count_total counter
log_count_total{app="app-name",level="INFO"} 4.0
Итак, это в основном то, что мне нужно обрезать вывод, который я получаю без этих escape-символов.
Я пытался обрезать ответ, как показано ниже, но это выдает ошибку
return (
Response(
generate_latest(registry),
status=status.HTTP_200_OK,
content_type=CONTENT_TYPE_LATEST,
)
.__str__()
.strip()
Как решить эту проблему? Заранее спасибо