стручок coredns не работает в kubernetes - PullRequest
0 голосов
/ 22 сентября 2019

Я устанавливаю kubernetes 1000 раз, но теперь это не работает.Я устанавливаю kubectl kubeadm kubelet тогда

 sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=185.73.114.92
 kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

, но я вижу, что сердечники находятся в состоянии ожидания

kubectl get pods --all-namespaces
NAMESPACE     NAME                              READY   STATUS    RESTARTS   AGE
kube-system   coredns-5644d7b6d9-492q4          0/1     Pending   0          13m
kube-system   coredns-5644d7b6d9-cvwjg          0/1     Pending   0          13m
kube-system   etcd-amghezi                      1/1     Running   0          12m
kube-system   kube-apiserver-amghezi            1/1     Running   0          12m
kube-system   kube-controller-manager-amghezi   1/1     Running   0          12m
kube-system   kube-flannel-ds-amd64-fkxnf       1/1     Running   0          12m
kube-system   kube-proxy-pspw2                  1/1     Running   0          13m
kube-system   kube-scheduler-amghezi            1/1     Running   0          12m

, а затем я получаю описание сердечек

kubectl describe pods coredns-5644d7b6d9-492q4 -n kube-system
Events:
  Type     Reason            Age        From               Message
  ----     ------            ----       ----               -------
  Warning  FailedScheduling  <unknown>  default-scheduler  0/1 nodes are available: 1 node(s) had taints that the pod didn't tolerate.
  Warning  FailedScheduling  <unknown>  default-scheduler  0/1 nodes are available: 1 node(s) had taints that the pod didn't tolerate.

Я портюузел по

kubectl taint nodes amghezi node-role.kubernetes.io/master-

Это не сработало. Я вижу на

journalctl -xe
message:docker: network plugin is not ready: cni config uninitialized

service docker status
● docker.service - Docker Application Container Engine
   Loaded: loaded (/lib/systemd/system/docker.service; disabled; vendor preset: enabled)
   Active: active (running) since Sun 2019-09-22 17:29:45 CEST; 34min ago
     Docs: https://docs.docker.com
 Main PID: 987 (dockerd)
    Tasks: 20
   CGroup: /system.slice/docker.service
           └─987 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock

Sep 22 17:29:45 ubuntu systemd[1]: Started Docker Application Container Engine.
Sep 22 17:29:45 ubuntu dockerd[987]: time="2019-09-22T17:29:45.728818467+02:00" level=info msg="API listen on /var/run/docker.sock"
Sep 22 17:29:45 ubuntu dockerd[987]: time="2019-09-22T17:29:45.757401709+02:00" level=warning msg="failed to retrieve runc version: unknown output format: runc version spec: 1.0.1-dev\n"
Sep 22 17:29:45 ubuntu dockerd[987]: time="2019-09-22T17:29:45.786776798+02:00" level=warning msg="failed to retrieve runc version: unknown output format: runc version spec: 1.0.1-dev\n"
Sep 22 17:29:46 ubuntu dockerd[987]: time="2019-09-22T17:29:46.296798944+02:00" level=warning msg="failed to retrieve runc version: unknown output format: runc version spec: 1.0.1-dev\n"
Sep 22 17:29:46 ubuntu dockerd[987]: time="2019-09-22T17:29:46.364459982+02:00" level=warning msg="failed to retrieve runc version: unknown output format: runc version spec: 1.0.1-dev\n"
Sep 22 17:30:06 ubuntu dockerd[987]: time="2019-09-22T17:30:06.996299645+02:00" level=warning msg="failed to retrieve runc version: unknown output format: runc version spec: 1.0.1-dev\n"
Sep 22 17:30:41 ubuntu dockerd[987]: time="2019-09-22T17:30:41.633452599+02:00" level=info msg="ignoring event" module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete"
Sep 22 17:30:41 ubuntu dockerd[987]: time="2019-09-22T17:30:41.633831003+02:00" level=warning msg="d72e19bd0e929513a1c9092ec487e5dc3f3e009bdaa4d33668b610e86cdadf9e cleanup: failed to unmount IPC: umount /var/lib/docker/containers/d72e19bd0e929513a1c9092ec487e5dc3f3e009bdaa4d33668b610e86cdadf9e/mounts/shm, flags: 0x2
Sep 22 17:30:41 ubuntu dockerd[987]: time="2019-09-22T17:30:41.903058543+02:00" level=warning msg="Your kernel does not support swap limit capabilities,or the cgroup is not mounted. Memory limited without swap."

и давайте посмотрим статус кубелета

Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

1 Ответ

0 голосов
/ 24 сентября 2019

Я предполагаю, что для данных выходных данных проблема связана с Kubelet агентом узла, поскольку kubelet в основном требует установки сетевого плагина CNI .Чтобы автоматически настроить сетевые функции для модулей, kubelet запускается каждый раз CNI addon в предыдущем создании модуля, чтобы также настроить сетевой интерфейс модуля.Кроме того, служба обнаружения CoreDNS полагается на оверлейную контейнерную сеть, которая будет доступна для всех узлов кластера.

Хотя вы использовали Flannel CNI-провайдер, flannel Pod запущен и работает, так как kubelet не может создать интерфейс контейнера для определенных CoreDNS Pod с отсутствиемДля конфигурации CNI я бы рекомендовал сбросить кластер kubeadm с очищенной структурой папок избыточных компонентов:

$ sudo kubeadm reset

$ sudo systemctl stop docker && sudo systemctl stop kubelet

$ sudo rm -rf /etc/kubernetes/

$ sudo rm -rf .kube/

$ sudo rm -rf /var/lib/kubelet/

$ sudo rm -rf /var/lib/cni/

$ sudo rm -rf /etc/cni/

$ sudo rm -rf /var/lib/etcd/

Bootstrap K8s clusterчерез kubeadm:

$ sudo systemctl start docker && sudo systemctl start kubelet

$ sudo kubeadm init ...

Далее удалите node-role.kubernetes.io/master taint и примените фланелевое дополнение:

$ kubectl taint nodes --all node-role.kubernetes.io/master-

$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

Вы также можете найти полезную информацию о kubeadm устранении неполадок этапах руководства в официальной документации K8s.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...