Kubernetes набрать tcp myIP: 10250: подключиться: нет маршрута к хосту - PullRequest
1 голос
/ 07 октября 2019

enter image description here Я получил кластер Kubernetes с 1 главным и 3 рабочими узлами.

Калико v3.7.3 kubernetes v1.16.0 установлено через kubespray https://github.com/kubernetes-sigs/kubespray

До этого я обычно без проблем разворачивал все модули.

Я не могу запустить несколько модулей (Ceph):

kubectl get all --namespace=ceph
NAME                                 READY   STATUS             RESTARTS   AGE
pod/ceph-cephfs-test                 0/1     Pending            0          162m
pod/ceph-mds-665d849f4f-fzzwb        0/1     Pending            0          162m
pod/ceph-mon-744f6dc9d6-jtbgk        0/1     CrashLoopBackOff   24         162m
pod/ceph-mon-744f6dc9d6-mqwgb        0/1     CrashLoopBackOff   24         162m
pod/ceph-mon-744f6dc9d6-zthpv        0/1     CrashLoopBackOff   24         162m
pod/ceph-mon-check-6f474c97f-gjr9f   1/1     Running            0          162m


NAME               TYPE        CLUSTER-IP   EXTERNAL-IP   PORT(S)    AGE
service/ceph-mon   ClusterIP   None         <none>        6789/TCP   162m

NAME                      DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR       AGE
daemonset.apps/ceph-osd   0         0         0       0            0           node-type=storage   162m

NAME                             READY   UP-TO-DATE   AVAILABLE   AGE
deployment.apps/ceph-mds         0/1     1            0           162m
deployment.apps/ceph-mon         0/3     3            0           162m
deployment.apps/ceph-mon-check   1/1     1            1           162m

NAME                                       DESIRED   CURRENT   READY   AGE
replicaset.apps/ceph-mds-665d849f4f        1         1         0       162m
replicaset.apps/ceph-mon-744f6dc9d6        3         3         0       162m
replicaset.apps/ceph-mon-check-6f474c97f   1         1         1       162m

Но с другим obe все в порядке:

kubectl get pods -n kube-system
NAME                                       READY   STATUS    RESTARTS   AGE
calico-kube-controllers-6d57b44787-xlj89   1/1     Running   19         24d
calico-node-dwm47                          1/1     Running   310        19d
calico-node-hhgzk                          1/1     Running   15         24d
calico-node-tk4mp                          1/1     Running   309        19d
calico-node-w7zvs                          1/1     Running   312        19d
coredns-74c9d4d795-jrxjn                   1/1     Running   0          2d23h
coredns-74c9d4d795-psf2v                   1/1     Running   2          18d
dns-autoscaler-7d95989447-7kqsn            1/1     Running   10         24d
kube-apiserver-master                      1/1     Running   4          24d
kube-controller-manager-master             1/1     Running   3          24d
kube-proxy-9bt8m                           1/1     Running   2          19d
kube-proxy-cbrcl                           1/1     Running   4          19d
kube-proxy-stj5g                           1/1     Running   0          19d
kube-proxy-zql86                           1/1     Running   0          19d
kube-scheduler-master                      1/1     Running   3          24d
kubernetes-dashboard-7c547b4c64-6skc7      1/1     Running   591        24d
nginx-proxy-worker1                        1/1     Running   2          19d
nginx-proxy-worker2                        1/1     Running   0          19d
nginx-proxy-worker3                        1/1     Running   0          19d
nodelocaldns-6t92x                         1/1     Running   2          19d
nodelocaldns-kgm4t                         1/1     Running   0          19d
nodelocaldns-xl8zg                         1/1     Running   0          19d
nodelocaldns-xwlwk                         1/1     Running   12         24d
tiller-deploy-8557598fbc-7f2w6             1/1     Running   0          131m

Я пользуюсь Centos 7:

NAME="CentOS Linux"
VERSION="7 (Core)"
ID="centos"
ID_LIKE="rhel fedora"
VERSION_ID="7"
PRETTY_NAME="CentOS Linux 7 (Core)"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:centos:centos:7"
HOME_URL="https://www.centos.org/"
BUG_REPORT_URL="https://bugs.centos.org/"

CENTOS_MANTISBT_PROJECT="CentOS-7"
CENTOS_MANTISBT_PROJECT_VERSION="7"
REDHAT_SUPPORT_PRODUCT="centos"
REDHAT_SUPPORT_PRODUCT_VERSION="7"

Журнал ошибок:

Get https://10.2.67.203:10250/containerLogs/ceph/ceph-mon-744f6dc9d6-mqwgb/ceph-mon?tailLines=5000&timestamps=true: dial tcp 10.2.67.203:10250: connect: no route to host

Может, кто-то сталкивался с этим и может мне помочь? Я предоставлю любую дополнительную информацию

журналы от ожидающих модулей:

Предупреждение FailedSheduling 98s (x125 свыше 3h1m) по умолчанию доступно 0/4 узлов: 4 узла не соответствуютселектор узла.

1 Ответ

0 голосов
/ 08 ноября 2019

tl; dr; Похоже, что ваш кластер довольно сломан и должен быть отремонтирован перед осмотром Ceph *

Get https://10.2.67.203:10250/containerLogs/ceph/ceph-mon-744f6dc9d6-mqwgb/ceph-mon?tailLines=5000&timestamps=true: dial tcp 10.2.67.203:10250: connect: no route to host

10250 - это порт, который сервер API Kubernetes использует для подключения к Kubelet узла для получения журналов.

Эта ошибка означает, что серверу API Kubernetes не удалось связаться с узлом. Это не имеет ничего общего с вашими контейнерами, модулями или даже вашей сетью CNI. no route to host указывает, что либо:

  1. Хост недоступен
  2. Произошла сегментация сети
  3. Kubelet не может ответить на сервер API

Прежде чем приступить к решению проблем с модулями Ceph, я должен выяснить, почему Kubelet недоступен с сервера API.

После того, как вы решите основные проблемы с сетевым подключением, я рассмотрю циклические сбои в блоках Calico (вы можете просмотреть журналы ранее выполненных контейнеров, запустив kubectl get po -n kube-system calico-node-dwm47 -p).

После того, как вы разберете как базовую сеть, так и сеть pod, я решу проблемы с аварийным циклом Dashboard Kubernetes и, наконец, начну исследовать, почему у вас возникают проблемы с развертыванием Ceph.

...