kubeadm + бязь 3.6 сингленод не навсегда - PullRequest
0 голосов
/ 16 апреля 2019

Я использую Ubuntu Bionic (18.04) с последней версией kubeadm в репозиториях Ubuntu (1.13.4) и Calico 3.6, следуя их документации для «Установка с хранилищем данных API Kubernetes - 50 узлов или меньше» (https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/calico).

Началось с:

sudo kubeadm init --pod-network-cidr=192.168.0.0/16

Но когда я применяю calico.yaml, мой узел застревает с условием:

Условия: Тип Состояние LastHeartbeatTime
LastTransitionTime Причина сообщения ---- ------ ----------------- ------------------ ----- - ------- MemoryPressure False Mon, 15 апреля 2019 20:24:43 -0300 понедельник, 15 апреля 2019 20:21:20 -0300 KubeletHasSufficientMemory kubelet имеет достаточно памяти доступно DiskPressure False Mon, 15 Apr 2019 20:24:43 -0300 понедельник, 15 апреля 2019 20:21:20 -0300
KubeletHasNoDiskPressure kubelet не имеет давления на диск
PIDPressure False Mon, 15 Apr 2019 20:24:43 -0300 Mon, 15 Apr 2019 20:21:20 -0300 KubeletHasSufficientPID kubelet имеет имеется достаточный PID Ready False Mon, 15 Apr 2019 20:24:43 -0300 Пн, 15 апреля 2019 20:21:20 -0300 KubeletNotReady
сеть во время выполнения не готова: NetworkReady = false причина: NetworkPluginNotReady сообщение: docker: сетевой плагин не готов: cni config неинициализирован

Когда я вижу системные модули (kubectl get pods -n kube-system), я получаю:

NAME                                       READY   STATUS     RESTARTS   AGE
calico-kube-controllers-55df754b5d-zsttg   0/1     Pending    0          34s
calico-node-5n6p2                          0/1     Init:0/2   0          35s
coredns-86c58d9df4-jw7wk                   0/1     Pending    0          99s
coredns-86c58d9df4-sztxw                   0/1     Pending    0          99s
etcd-cherokee                              1/1     Running    0          36s
kube-apiserver-cherokee                    1/1     Running    0          46s
kube-controller-manager-cherokee           1/1     Running    0          59s
kube-proxy-22xwj                           1/1     Running    0          99s
kube-scheduler-cherokee                    1/1     Running    0          44s

Может ли это быть ошибкой или чего-то не хватает?

1 Ответ

2 голосов
/ 16 апреля 2019

Попробуйте удалить порчу на главном узле, kubectl taint nodes --all node-role.kubernetes.io/master-.

Ссылка здесь, https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/#control-plane-node-isolation

...