Ошибка с kube-proxy при обновлении k8s с Kubespray - PullRequest
0 голосов
/ 28 мая 2019

Я развернул кластер k8s 1.9.5 с Kubespray 2.5.0, который работал хорошо, но мне нужно было его обновить.Я использовал следующую версию Kubespray: 2.6.0, 2.7.0, 2.8.5.Только последнее включение дает мне ошибку на шаге kubeadm | Enable kube-proxy и выводит следующий stderr:

error when creating kube-proxy service account: unable to create serviceaccount: Post https://10.2.33.14:6443/api/v1/namespaces/kube-system/serviceaccounts: dial tcp 10.2.33.14:6443: connect: connection refused

Я попытался сбросить кластер с помощью Kubespray 2.7.0 с помощью выделенного playbook, и это было нормально, но в любом случае, когда я снова запустил обновление, та же ошибка.

Кроме того, я проверил контейнеры док-станции в этом главном узле, тот, у которого был запущен kube-proxy, загрузил журналы на https://termbin.com/klk5 и я могу видеть это:

1 proxier.go:540] Error removing iptables rules in ipvs proxier: error deleting chain \"KUBE-MARK-MASQ\": exit status 1: iptables: Too many links.\n","stream":"stderr","time":"2019-05-27T15:05:05.802972706Z"}
[...]
1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:129: Failed to list *core.Service: Get https://127.0.0.1:6443/api/v1/services?limit=500\u0026resourceVersion=0: dial tcp 127.0.0.1:6443: connect: connection refused\n","stream":"stderr","time":"2019-05-27T15:05:05.915223763Z"}
1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:129: Failed to list *core.Endpoints: Get https://127.0.0.1:6443/api/v1/endpoints?limit=500\u0026resourceVersion=0: dial tcp 127.0.0.1:6443: connect: connection refused\n","stream":"stderr","time":"2019-05-27T15:05:05.915232458Z"}
1 event.go:212] Unable to write event: 'Post https://127.0.0.1:6443/api/v1/namespaces/default/events: dial tcp 127.0.0.1:6443: connect: connection refused' (may retry after sleeping)\n","stream":"stderr","time":"2019-05-27T15:05:05.915357974Z"}

Вот некоторые из опций, которые я получил в group_vars:

cloud_provider: vsphere
kube_network_plugin: flannel
kube_proxy_mode: iptables
dns_mode: kubedns
resolvconf_mode: docker_dns

мой файл hosts.ini:

master-01 ansible_ssh_host=10.2.33.14
master-02 ansible_ssh_host=10.2.33.15
master-03 ansible_ssh_host=10.2.33.3
node-01 ansible_ssh_host=10.2.33.16
node-02 ansible_ssh_host=10.2.33.17
node-03 ansible_ssh_host=10.2.33.4
node-04 ansible_ssh_host=10.2.33.6
node-05 ansible_ssh_host=10.2.33.21
node-06 ansible_ssh_host=10.2.33.22
node-07 ansible_ssh_host=10.2.33.23
node-08 ansible_ssh_host=10.2.33.24
node-09 ansible_ssh_host=10.2.33.25
node-10 ansible_ssh_host=10.2.33.5
node-cassandra-01 ansible_ssh_host=10.2.33.18
node-cassandra-02 ansible_ssh_host=10.2.33.19
node-cassandra-03 ansible_ssh_host=10.2.33.20
[kube-master]
master-01
master-02
master-03
[etcd]
master-01
master-02
master-03
[kube-node]
node-01
node-02
node-03
node-04
node-05
node-06
node-07
node-08
node-09
node-10
node-cassandra-01
node-cassandra-02
node-cassandra-03
[k8s-cluster:children]
kube-node
kube-master

Я ожидаю, что Kubespray сможет обновить развернутый им кластер k8s и обработать конфигурацию, которая не перемещалась.

Я ищу некоторую помощь для устранения этой проблемы, я также написалэто на kubernetes Slack - канал kubespray

Спасибо за чтение

...