мы пытаемся отслеживать K8S с помощью Grafana и Prometheus Operator
большинство показателей работают так, как ожидалось, и я смог увидеть панель управления с правильным значением, наша система содержит 10 узлов с общим количеством 500 модулей, теперь, когдаЯ перезапускаю Prometheus, все данные были удалены (я хочу, чтобы они хранились в течение двух недель). Мой вопрос: как определить объем Prometheus для хранения данных в течение двух недель или 100GB DB
.Я обнаружил следующее (мы пользователь Prometheus оператор)
https://github.com/coreos/prometheus-operator/blob/master/Documentation/user-guides/storage.md
Это конфигурация оператора Прометей
apiVersion: apps/v1beta2
kind: Deployment
metadata:
labels:
k8s-app: prometheus-operator
name: prometheus-operator
namespace: monitoring
spec:
replicas: 1
selector:
matchLabels:
k8s-app: prometheus-operator
template:
metadata:
labels:
k8s-app: prometheus-operator
spec:
containers:
- args:
- --kubelet-service=kube-system/kubelet
- --logtostderr=true
- --config-reloader-image=quay.io/coreos/configmap-reload:v0.0.1
- --prometheus-config-reloader=quay.io/coreos/prometheus-config-reloader:v0.29.0
image: quay.io/coreos/prometheus-operator:v0.29.0
name: prometheus-operator
ports:
- containerPort: 8080
name: http
Это конфигурация Prometheus
apiVersion: monitoring.coreos.com/v1
kind: Prometheus
metadata:
name: prometheus
namespace: monitoring
labels:
prometheus: prometheus
spec:
replica: 2
serviceAccountName: prometheus
serviceMonitorNamespaceSelector: {}
serviceMonitorSelector:
matchLabels:
role: observeable
tolerations:
- key: "WorkGroup"
operator: "Equal"
value: "operator"
effect: "NoSchedule"
- key: "WorkGroup"
operator: "Equal"
value: "operator"
effect: "NoExecute"
resources:
limits:
cpu: 8000m
memory: 24000Mi
requests:
cpu: 6000m
memory: 6000Mi
storage:
volumeClaimTemplate:
spec:
selector:
matchLabels:
app: prometheus
resources:
requests:
storage: 100Gi
https://github.com/coreos/prometheus-operator/blob/master/Documentation/user-guides/storage.md
у нас есть файловая система (nfs), и вышеупомянутая конфигурация хранилища не 'т работает, мой вопрос:
- что мне не хватает здесь, это как настроить
volume
, server
, path
в следующем разделе в разделе nfs
где мне найти этот "/ path / to / prom / db"?как я могу сослаться на это?Должен ли я создать его как-то, или просто указать путь.в нашей системе настроены nfs
как объединить его с Прометеем
Поскольку у меня нет глубоких знаний в pvc
и pv
, я создал следующее (не уверен, что касается этих значений, чтомой сервер и какой путь я должен предоставить ...
server: myServer
path: "/path/to/prom/db"
что мне туда поставить и как сделать мой Прометей (т.е. конфигурацию, которую я указал в вопросе) для использованияэто
apiVersion: v1
kind: PersistentVolume
metadata:
name: prometheus
namespace: monitoring
labels:
app: prometheus
prometheus: prometheus
spec:
capacity:
storage: 100Gi
accessModes:
- ReadWriteOnce # required
nfs:
server: myServer
path: "/path/to/prom/db"
если есть какой-либо другой постоянный том, отличный от nfs
, который я могу использовать для своего варианта использования, пожалуйста, сообщите как