Как заставить glusterfs выжить при обновлении кластера - PullRequest
0 голосов
/ 09 мая 2018

Я пытаюсь использовать glusterfs, установленную непосредственно на моих узлах кластера GCE. Установка не сохраняется при обновлении кластера, что может быть решено с помощью сценария начальной загрузки. Проблема в том, что когда я переустанавливал glusterfs вручную и монтировал кирпич, там не было томов, которые мне пришлось принудительно воссоздавать.

Что случилось? Хранит ли glusterfs данные тома где-то еще, кроме кирпичей? Как мне предотвратить это?

1 Ответ

0 голосов
/ 19 мая 2018

Могу ли я подтвердить, что вы делаете это в кластере Kubernetes? Я полагаю, что вы, как вы упомянули, обновления кластера.

Если так, когда вы говорите, что gluster был установлен непосредственно на ваших узлах, я не уверен, что понимаю эту часть вашего поста. Мое понимание предполагаемого использования glusterfs заключается в том, что он существует как распределенная файловая система, и поэтому хранилище является частью отдельного кластера для узлов Kubernetes.

Я полагаю, что это рекомендуемый метод для использования glusterfs с Kubernetes, и таким образом данные в томах будут сохранены после обновления кластера Kubernetes.

Вот шаги, которые я выполнил.

Я создал кластер glusterfs, используя информацию / скрипт из первых трех шагов в этом этом учебном пособии (особенно шаги «Клон», «Загрузи свой кластер» и «Создай свой первый том»). С точки зрения YAML ниже, может быть полезно знать, что мой том glusterfs был назван 'glustervolume'.

Как только я подтвердил, что кластерный том создан, я создал Kubernetes, сервис и конечные точки, которые указывают на этот том. IP-адреса в разделе конечной точки YAML ниже являются внутренними IP-адресами экземпляров в кластере хранения glusterfs.

---
apiVersion: v1
kind: Service
metadata:
  name: glusterfs-cluster
spec:
  ports:
  - port: 1
---
apiVersion: v1
kind: Endpoints
metadata:
  name: glusterfs-cluster
subsets:
  - addresses:
      - ip: 10.132.0.6
    ports:
      - port: 1
  - addresses:
      - ip: 10.132.0.7
    ports:
      - port: 1
  - addresses:
      - ip: 10.132.0.8
    ports:
      - port: 1

Затем я создал модуль для использования тома кластера:

---
apiVersion: v1
kind: Pod
metadata:
  name: glusterfs
spec:
  containers:
  - name: glusterfs
    image: nginx
    volumeMounts:
    - mountPath: "/mnt/glusterfs"
      name: glustervolume
  volumes:
  - name: glustervolume
    glusterfs:
      endpoints: glusterfs-cluster
      path: glustervolume
      readOnly: false

Поскольку том glusterfs существует отдельно от кластера Kubernetes (то есть в его собственном кластере), обновления Kubernetes не будут влиять на том.

...