Рабочим узлам Kubernetes не назначается автоматически podCidr при соединении kubeadm - PullRequest
0 голосов
/ 03 октября 2018

У меня настроен многоузловой кластер Kubernetes с одним рабочим узлом.Я настроил кластер с kubeadm.На kubeadm init я передал -pod-network-cidr=10.244.0.0/16 (используя Flannel в качестве сетевого оверлея).

При использовании kubeadm join на первом рабочем узле все работало правильно.По какой-то причине при попытке добавить больше рабочих ни одному из узлов автоматически не назначается podCidr.

Я использовал этот документ для ручного исправления каждого рабочего узла, используя команду kubectl patch node <NODE_NAME> -p '{"spec":{"podCIDR":"<SUBNET>"}}' ивсе работает нормально.

Но это не идеально, мне интересно, как я могу исправить мои настройки, так что простое добавление команды kubeadm join автоматически назначит podCidr.

Любая помощь будетс благодарностьюСпасибо!

Редактировать:

I1003 23:08:55.920623       1 main.go:475] Determining IP address of default interface

I1003 23:08:55.920896       1 main.go:488] Using interface with name eth0 and address 

I1003 23:08:55.920915       1 main.go:505] Defaulting external address to interface address ()

I1003 23:08:55.941287       1 kube.go:131] Waiting 10m0s for node controller to sync

I1003 23:08:55.942785       1 kube.go:294] Starting kube subnet manager

I1003 23:08:56.943187       1 kube.go:138] Node controller sync successful

I1003 23:08:56.943212       1 main.go:235] Created subnet manager: 

Администратор подсетей Kubernetes - kubernetes-worker-06

I1003 23:08:56.943219       1 main.go:238] Installing signal handlers

I1003 23:08:56.943273       1 main.go:353] Found network config - Backend type: vxlan

I1003 23:08:56.943319       1 vxlan.go:120] VXLAN config: VNI=1 Port=0 GBP=false DirectRouting=false

E1003 23:08:56.943497       1 main.go:280] Error registering network: failed to acquire lease: node "kube-worker-02" pod cidr not assigned

I1003 23:08:56.943513       1 main.go:333] Stopping shutdownHandler...

1 Ответ

0 голосов
/ 05 октября 2018

Мне удалось решить мою проблему.В моей настройке с несколькими мастерами на одном моих главных узлах в файле kube-controller-manager.yaml (в / etc / kubernetes / manifest) отсутствовали два следующих поля:

  • --allocate-node-cidrs=true
  • --cluster-cidr=10.244.0.0/16

После добавления этих полей в yaml я сбросил службу kubelet, и все работало замечательно при попытке добавить новый рабочий узел.

Это была ошибка с моей стороны, потому что при инициализации одного из моих мастер-узлов с помощью kubeadm init я должен был забыть передать --pod-network-cidr.Упс.

Надеюсь, это кому-нибудь поможет!

...