Могу ли я подтвердить, что вы делаете это в кластере Kubernetes? Я полагаю, что вы, как вы упомянули, обновления кластера.
Если так, когда вы говорите, что gluster был установлен непосредственно на ваших узлах, я не уверен, что понимаю эту часть вашего поста. Мое понимание предполагаемого использования glusterfs заключается в том, что он существует как распределенная файловая система, и поэтому хранилище является частью отдельного кластера для узлов Kubernetes.
Я полагаю, что это рекомендуемый метод для использования glusterfs с Kubernetes, и таким образом данные в томах будут сохранены после обновления кластера Kubernetes.
Вот шаги, которые я выполнил.
Я создал кластер glusterfs, используя информацию / скрипт из первых трех шагов в этом этом учебном пособии (особенно шаги «Клон», «Загрузи свой кластер» и «Создай свой первый том»). С точки зрения YAML ниже, может быть полезно знать, что мой том glusterfs был назван 'glustervolume'.
Как только я подтвердил, что кластерный том создан, я создал Kubernetes, сервис и конечные точки, которые указывают на этот том. IP-адреса в разделе конечной точки YAML ниже являются внутренними IP-адресами экземпляров в кластере хранения glusterfs.
---
apiVersion: v1
kind: Service
metadata:
name: glusterfs-cluster
spec:
ports:
- port: 1
---
apiVersion: v1
kind: Endpoints
metadata:
name: glusterfs-cluster
subsets:
- addresses:
- ip: 10.132.0.6
ports:
- port: 1
- addresses:
- ip: 10.132.0.7
ports:
- port: 1
- addresses:
- ip: 10.132.0.8
ports:
- port: 1
Затем я создал модуль для использования тома кластера:
---
apiVersion: v1
kind: Pod
metadata:
name: glusterfs
spec:
containers:
- name: glusterfs
image: nginx
volumeMounts:
- mountPath: "/mnt/glusterfs"
name: glustervolume
volumes:
- name: glustervolume
glusterfs:
endpoints: glusterfs-cluster
path: glustervolume
readOnly: false
Поскольку том glusterfs существует отдельно от кластера Kubernetes (то есть в его собственном кластере), обновления Kubernetes не будут влиять на том.