Монтирование пути создает новый каталог в kubernetes - PullRequest
0 голосов
/ 11 апреля 2020

У меня возникают проблемы при монтировании пути. Моя цель - сделать данные постоянными, даже когда модуль перезапускается. Но он создает новый каталог, в котором нет ни одного из моих файлов конфигурации.

FROM centos:7
ENV DIR /binaries
ENV PASS admin
WORKDIR ${DIR}
COPY libstdc++-4.8.5-39.el7.x86_64.rpm ${DIR} 
COPY numactl-libs-2.0.12-3.el7.x86_64.rpm ${DIR}
COPY mysqlmonitor-8.0.18.1217-linux-x86_64-installer.bin ${DIR}
RUN yum install -y libaio && yum -y install gcc && yum -y install gcc-c++ && yum -y install compat-libstdc++-33 && yum -y install libstdc++-devel && yum -y install elfutils-libelf-devel && yum -y install glibc-devel && yum -y install libaio-devel && yum -y install sysstat
RUN yum install -y gcc && yum install -y make && yum install -y apr-devel && yum install -y openssl-devel && yum install -y java
RUN rpm -ivh numactl-libs-2.0.12-3.el7.x86_64.rpm
RUN useradd sql
RUN chown sql ${DIR}
RUN chmod 777 ${DIR}
RUN chmod 755 /home/sql
USER sql
WORKDIR ${DIR}
RUN ./mysqlmonitor-8.0.18.1217-linux-x86_64-installer.bin --installdir /home/sql/mysql/enterprise/monitor --mode unattended --tomcatport 18080 --tomcatsslport 18443 --adminpassword ### --dbport 13306
RUN rm -rf /binaries/*
VOLUME /home/sql/mysql/enterprise/monitor/mysql/data
ENTRYPOINT ["/bin/bash", "-c", "/home/sql/mysql/enterprise/monitor/mysqlmonitorctl.sh start && tail -f /home/sql/mysql/enterprise/monitor/apache-tomcat/logs/mysql-monitor.log"]
Deployment yaml file
apiVersion: apps/v1
kind: Deployment
metadata:
  name: mypod
spec:
  replicas: 1
  selector:
    matchLabels:
      app: mem     
  template:
    metadata:
      labels:
        app: mem
    spec:
      containers:
      - name: mem
        image: 22071997/mem
        command: 
        volumeMounts:
        - mountPath: /home/sql/mysql/enterprise/mysql/data
          name: volume
      volumes:
      - name: volume
        persistentVolumeClaim:
          claimName: mem-
Output:
[sql@mypod-67cb4f85b8-9km26 data]$ pwd
/home/sql/mysql/enterprise/mysql/data
[sql@mypod-67cb4f85b8-9km26 data]$ ls
[sql@mypod-67cb4f85b8-9km26 data]$

Ожидаемый результат: мне нужны все мои данные.

1 Ответ

1 голос
/ 12 апреля 2020

Пожалуйста, проверьте следующее:

  • Вы используете Dockerfile VOLUME с целью сохранения данных из тома контейнера / home / sql / mysql / enterprise / monitor / mysql / data в томе хоста / var / lib / docker / volume /... (* ie. Для каждого узла эти данные будут уникальными - так существует абстракция PersistentVolume в Kubernetes)

Если нет:

  • В кластере существует абстракция PersistentVolume (kubectl get pv). У него есть допустимый PersistentVolume.spe c .type (например, nfs, hostPath)
  • Существует абстракция PersistentVolumeClaim (kubectl get pv c) в кластере
  • Существует развертывание абстракция (kubectl get deploy) в кластере
  • PersistentVolumeClaim.spe c .volumeName соответствует PersistentVolume.metadata.name (или PersistentVolume.spe c .claimRef.name соответствует PersistentVolumeClaim.metadata.name)
  • Deployment.spe c .template.spe c .volumes []. PersistentVolumeClaim.claimName соответствует PersistentVolumeClaim.metadata.name
  • Deployment.spe c .template.spe c .containers []. volumeMounts []. name соответствует Deployment.spe c .template.spe c .volumes []. name

Отладка:

  • Найдите путь монтирования плагина PersistentVolume. Давайте возьмем мой кластер Minikube в качестве примера. Я использую:
$ kubectl get pv -o=jsonpath='{.items[0].spec.hostPath.path}'
/tmp/hostpath-provisioner/pvc-5e497ae8-943e-4651-86b9-4355c48d443dsv
  • Создайте файл примера:
$ touch /tmp/hostpath-provisioner/pvc-5e497ae8-943e-4651-86b9-4355c48d443d/1
$ ls /tmp/hostpath-provisioner/pvc-5e497ae8-943e-4651-86b9-4355c48d443d
1
  • Создайте развертывание, следуя вышеупомянутым проверкам:
apiVersion: apps/v1
kind: Deployment
metadata:
  creationTimestamp: null
  labels:
    app: test
  name: test
spec:
  replicas: 1
  selector:
    matchLabels:
      app: test
  strategy: {}
  template:
    metadata:
      creationTimestamp: null
      labels:
        app: test
    spec:
      containers:
      - image: busybox
        command:
          - sleep
          - "10000"
        name: busybox
        resources: {}
        volumeMounts:
          - mountPath: /tmp/test_dir
            name: my-volume
      volumes:
      - name: my-volume
        persistentVolumeClaim:
            claimName: myclaim
  • Проверьте, существует ли файл в указанном каталоге:
$ kubectl exec test-6f857854db-57fsz -- ls /tmp/test_dir
1
...