Не удается проверить связь с модулем, развернутым на рабочем узле. - PullRequest
1 голос
/ 06 июня 2019

У меня есть один мастер-узел и один рабочий узел.

. На рабочем узле я только что выполнил 2 команды

a)kubeadm reset
b)kubeadm join ......... ..... ..... ....

Так что мне нужно сделать что-то, что я делал на главном узле?

a)kubeadm init
b)kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"

Поскольку я не сделал kubeadm init , потому что я думаю, что он станет главным узлом, в любом случае, я не могу использовать любую команду, такую ​​как kubectl get nodes, kubectl get pods.

Состояние моего главного узла и рабочего узла готово

Я развернул один модуль на главном узле и могу выполнить ping www.google.com

но когда я развернул один модуль, используя

spec:
     nodeSelector :
       nodeName : nodeName

, поэтому я успешно развернул модуль на рабочем узле, используя метку

Но я не могу пинговать внутри модуля

Вывод команд с главного узла: -

aquilak8suser@ip-172-31-6-149:/$ kubectl get nodes
NAME              STATUS   ROLES    AGE     VERSION
ip-172-31-11-87   Ready    <none>   4h35m   v1.13.3
ip-172-31-6-149   Ready    master   11h     v1.13.3




aquilak8suser@ip-172-31-6-149:/$ kubectl get pods -n kube-system -o wide
NAME                                       READY   STATUS    RESTARTS   AGE     IP               NODE              NOMINATED NODE   READINESS GATES
calico-kube-controllers-5f454f49dd-75r5w   1/1     Running   0          11h     192.168.179.67   ip-172-31-6-149   <none>           <none>
calico-node-298r4                          0/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>
calico-node-5979v                          0/1     Running   0          4h37m   172.31.11.87     ip-172-31-11-87   <none>           <none>
coredns-86c58d9df4-6rzt2                   1/1     Running   0          11h     192.168.179.65   ip-172-31-6-149   <none>           <none>
coredns-86c58d9df4-722tb                   1/1     Running   0          11h     192.168.179.66   ip-172-31-6-149   <none>           <none>
etcd-ip-172-31-6-149                       1/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>
kube-apiserver-ip-172-31-6-149             1/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>
kube-controller-manager-ip-172-31-6-149    1/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>
kube-proxy-496gh                           1/1     Running   0          4h37m   172.31.11.87     ip-172-31-11-87   <none>           <none>
kube-proxy-7684r                           1/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>
kube-scheduler-ip-172-31-6-149             1/1     Running   0          11h     172.31.6.149     ip-172-31-6-149   <none>           <none>

aquilak8suser@ip-172-31-6-149:/$ kubectl logs coredns-86c58d9df4-6rzt2 --tail=200 -n kube-system
.:53
2019-06-06T04:20:31.271Z [INFO] CoreDNS-1.2.6
2019-06-06T04:20:31.271Z [INFO] linux/amd64, go1.11.2, 756749c
CoreDNS-1.2.6
linux/amd64, go1.11.2, 756749c
 [INFO] plugin/reload: Running configuration MD5 = f65c4821c8a9b7b5eb30fa4fbc167769


root@spring-boot-demo-pricing-66f668cbb4-q5dc2:/# cat /etc/resolv.conf
nameserver 10.96.0.10
search default.svc.cluster.local svc.cluster.local cluster.local us-east-2.compute.internal
options ndots:5
root@spring-boot-demo-pricing-66f668cbb4-q5dc2:/#

1 Ответ

2 голосов
/ 06 июня 2019
  1. Нет, вам не нужно запускать kubeadm init или kubectl apply -f "https://cloud.weave...... в рабочих узлах. Проверьте

  2. Чтобы использовать команды kubectl с рабочих узлов, вам нужно перенести файл /etc/kubernetes/admin.conf на рабочие узлы и поместить его в /ndomusername‹/.kube/config

scp /etc/kubernetes/admin.conf {workerNoderUser}@{workerNoderIP}:/{username}/.kube/config

после передачи конфигурации вы можете запускать команды kubectl и на рабочих узлах.

  1. Может быть много причин, по которым невозможно пинговать из модуля рабочего узла. Сначала проверьте, может ли ваш рабочий узел пропинговать google.com или нет. если это работает, то проверьте кластер DNS, который является Kube-DNS или Coredns, проверьте их журналы и если они здоровы. Вы также можете попытаться удалить /etc/resolv.conf и добавить общедоступные DNS-серверы, такие как серверы Google (8.8.8.8). Наконец, вы можете следовать это
...