Объем персистентности kubernetes и заявка на объем персистентности превысили объем хранилища - PullRequest
1 голос
/ 20 марта 2019

Следуя руководству kubernetes, я создал pv, pvc и pod. я потребовал только 10 млн. из 20 млн. PV. Я скопировал 23Mi, что больше, чем мой PV. Но мой модуль все еще работает. Кто-нибудь может объяснить?

р-volume.yaml

kind: PersistentVolume
apiVersion: v1
metadata:
  name: task-pv-volume
  labels:
    type: local
spec:
  storageClassName: manual
  capacity:
    storage: 20Mi
  accessModes:
    - ReadWriteOnce
  hostPath:
    path: "/mnt/data"

р-claim.yaml

kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: task-pv-claim
spec:
  storageClassName: manual
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 10Mi

р-pod.yaml

kind: Pod
apiVersion: v1
metadata:
  name: task-pv-pod
spec:
  volumes:
    - name: task-pv-storage
      persistentVolumeClaim:
       claimName: task-pv-claim
  containers:
    - name: task-pv-container
      image: nginx
      ports:
        - containerPort: 80
          name: "http-server"
      volumeMounts:
        - mountPath: "/usr/share/nginx/html"
          name: task-pv-storage

1 Ответ

0 голосов
/ 23 марта 2019

Возможно, вы можете скопировать столько данных в общее хранилище / mnt / data (на вашем активном узле), используя любое из хранилищ применяемого POD, / usr / share / nginx / html , общий для узла и модуля, пока ваш узел не перестанет отвечать.

Если вам нужно протестировать этот сценарий в более реальных условиях, рассмотрите возможность создания постоянного хранилища NFS с помощью GlusterFS , nfs-utils или смонтируйте необработанный раздел.файл сделан с dd .

В узлах Миникуба используются эфемерные хранилища.Подробную информацию о ресурсах узла / модуля вы можете найти здесь:

https://kubernetes.io/docs/tasks/administer-cluster/reserve-compute-resources/#node-allocatable
Надеюсь, эта помощь.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...