Kubernetes: не удалось получить GCE GCECloudProvider с ошибкой <nil> - PullRequest
0 голосов
/ 30 апреля 2018

Я настроил пользовательский кластер kubernetes на GCE, используя kubeadm. Я пытаюсь использовать StatefulSets с постоянным хранилищем.

У меня есть следующая конфигурация:

kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: gce-slow
provisioner: kubernetes.io/gce-pd
parameters:
  type: pd-standard
  zones: europe-west3-b
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: myname
  labels:
    app: myapp
spec:
  serviceName: myservice
  replicas: 1
  selector:
    matchLabels:
      app: myapp
  template:
    metadata:
      labels:
        app: myapp
    spec:
      containers:
        - name: mycontainer
          image: ubuntu:16.04
          env:
          volumeMounts:
          - name: myapp-data
            mountPath: /srv/data
      imagePullSecrets:
      - name: sitesearch-secret
  volumeClaimTemplates:
  - metadata:
      name: myapp-data
    spec:
      accessModes: [ "ReadWriteOnce" ]
      storageClassName: gce-slow
      resources:
        requests:
          storage: 1Gi

И я получаю следующую ошибку:

Nopx@vm0:~$ kubectl describe pvc
 Name:          myapp-data-myname-0
 Namespace:     default
 StorageClass:  gce-slow
 Status:        Pending
 Volume:
 Labels:        app=myapp
 Annotations:   volume.beta.kubernetes.io/storage-provisioner=kubernetes.io/gce-pd
 Finalizers:    [kubernetes.io/pvc-protection]
 Capacity:
 Access Modes:
 Events:
   Type     Reason              Age   From                         Message
   ----     ------              ----  ----                         -------
   Warning  ProvisioningFailed  5s    persistentvolume-controller  Failed to provision volume 
 with StorageClass "gce-slow": Failed to get GCE GCECloudProvider with error <nil>

Я шагаю в темноте и не знаю, чего не хватает. Кажется логичным, что это не работает, так как поставщик никогда не аутентифицируется в GCE. Любые намеки и указатели очень ценятся.

EDIT

Я попробовал решение здесь , отредактировав файл конфигурации в kubeadm с помощью kubeadm config upload from-file, однако ошибка сохраняется. Конфигурация kubadm выглядит следующим образом:

api:
  advertiseAddress: 10.156.0.2
  bindPort: 6443
  controlPlaneEndpoint: ""
auditPolicy:
  logDir: /var/log/kubernetes/audit
  logMaxAge: 2
  path: ""
authorizationModes:
- Node
- RBAC
certificatesDir: /etc/kubernetes/pki
cloudProvider: gce
criSocket: /var/run/dockershim.sock
etcd:
  caFile: ""
  certFile: ""
  dataDir: /var/lib/etcd
  endpoints: null
  image: ""
  keyFile: ""
imageRepository: k8s.gcr.io
kubeProxy:
  config:
    bindAddress: 0.0.0.0
    clientConnection:
      acceptContentTypes: ""
      burst: 10
      contentType: application/vnd.kubernetes.protobuf
      kubeconfig: /var/lib/kube-proxy/kubeconfig.conf
      qps: 5
    clusterCIDR: 192.168.0.0/16
    configSyncPeriod: 15m0s
    conntrack:
      max: null
      maxPerCore: 32768
      min: 131072
      tcpCloseWaitTimeout: 1h0m0s
      tcpEstablishedTimeout: 24h0m0s
    enableProfiling: false
    healthzBindAddress: 0.0.0.0:10256
    hostnameOverride: ""
    iptables:
      masqueradeAll: false
      masqueradeBit: 14
      minSyncPeriod: 0s
      syncPeriod: 30s
    ipvs:
      minSyncPeriod: 0s
      scheduler: ""
      syncPeriod: 30s
    metricsBindAddress: 127.0.0.1:10249
    mode: ""
    nodePortAddresses: null
    oomScoreAdj: -999
    portRange: ""
    resourceContainer: /kube-proxy
    udpIdleTimeout: 250ms
kubeletConfiguration: {}
kubernetesVersion: v1.10.2
networking:
  dnsDomain: cluster.local
  podSubnet: 192.168.0.0/16
  serviceSubnet: 10.96.0.0/12
nodeName: mynode
privilegedPods: false
token: ""
tokenGroups:
- system:bootstrappers:kubeadm:default-node-token
tokenTTL: 24h0m0s
tokenUsages:
- signing
- authentication
unifiedControlPlaneImage: ""

Редактировать

Проблема была решена в комментариях благодаря Антону Костенко. Последнее редактирование в сочетании с kubeadm upgrade решает проблему.

1 Ответ

0 голосов
/ 16 мая 2018

Ответ занял у меня некоторое время, но вот он:

Использование GCECloudProvider в Kubernetes за пределами Google Kubernetes Engine имеет следующие предпосылки (последний пункт относится к Kubeadm):

  1. Виртуальную машину необходимо запускать с учетной записью службы, которая имеет право на подготовку дисков. Информацию о том, как запустить виртуальную машину с учетной записью службы, можно найти здесь

  2. Kubelet должен работать с аргументом --cloud-provider=gce. Для этого необходимо отредактировать KUBELET_KUBECONFIG_ARGS в /etc/systemd/system/kubelet.service.d/10-kubeadm.conf. Затем Kubelet может быть перезапущен с sudo systemctl restart kubelet

  3. Необходимо настроить файл облачной конфигурации Kubernetes. Файл можно найти по адресу /etc/kubernetes/cloud-config, и для работы облачного провайдера достаточно следующего содержания:

    [Global]
    project-id = "<google-project-id>"
    
  4. Kubeadm должен настроить GCE в качестве своего облачного провайдера. Конфиг, размещенный в вопросе, прекрасно работает для этого. Однако nodeName необходимо изменить.

...