хранение конфигурации, используемой в ConfigMap "kubeadm-config", в пространстве имен "kube-system" - PullRequest
0 голосов
/ 21 декабря 2018

Я пытаюсь настроить kubeadm v1.13.1, используя ссылку на предпосылку

https://kubernetes.io/docs/setup/independent/high-availability/

После настройки мастера я получил команду соединения и попытался выполнить ее во втором мастере.как объяснено

1007 * Судо kubeadm присоединиться 10.240.0.16:6443 --token ih3zt7.iuhej18qzma0zigm --discovery-токен-ча-CERT-хэш sha256:. 6d509781604e2b93c326318e9aa9d982a9bccbf3f8fb8feb1cf25afc1bbb53c0 --experimental-контроль плоскости 1009 *[preflight] Выполнение предполетных проверок

[discovery] Попытка подключения к API-серверу "10.240.0.16:6443"

[discovery] Создан клиент обнаружения информации о кластере, запрашивающий информацию у"https://10.240.0.16:6443"

[обнаружение] Запрос информации из "https://10.240.0.16:6443" еще раз для проверки TLS с закрепленным открытым ключом

[обнаружение] Подпись и содержимое информации о кластере действительны и сертификат TLSпроверяет наличие закрепленных корней, будет использовать API-сервер "10.240.0.16:6443"

[discovery] Успешно установлено соединение с API-сервером" 10.240.0.16:6443"

[присоединиться] Чтение конфигурации из кластера ...

[присоединиться] К вашему сведению: этот файл конфигурации можно посмотреть с помощью 'kubectl -n kube-system get cm kubeadm-config -oyaml '

[объединить] Выполнение предполетных проверок перед инициализацией нового экземпляра плоскости управления [ПРЕДУПРЕЖДЕНИЕ Firewalld]: firewalld активен, пожалуйста, убедитесь, что порты [6443 10250] открыты или ваш кластер может работать неправильно

[certs] Генерация сертификата и ключа "apiserver"

[certs] Сертификат обслуживания сервера apserver подписан для DNS-имен [kb8-master2 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] и IP-адреса [10.96.0.1 10.240.0.33 10.240.0.16 10.240.0.16]

[certs] Генерация сертификата и ключа apiserver-kubelet-client

[certs] Генерациясертификат и ключ "front-proxy-client"

[certs] Генерация сертификата и ключа "etcd / peer"

[certs] etcd / peer обслуживающий сертификат подписан для имен DNS [kb8-master2 localhost kb8-master1] и IP-адреса [10.240.0.33 127.0.0.1 :: 1 10.240.0.4]

[certs] Генерация сертификата и ключа "etcd / healthcheck-client" и

[certs] Генерация "apiserver-etcd-client "сертификат и ключ

[certs] Генерация сертификата и ключа" etcd / server "

[certs] etcd / сервер, обслуживающий сертификат, подписан для имен DNS [kb8-master2 localhostkb8-master1] и IP-адреса [10.240.0.33 127.0.0.1 :: 1 10.240.0.4]

[сертификаты] допустимые сертификаты и ключи теперь существуют в "/ etc / kubernetes / pki"

[certs] Использование существующего ключа "sa" [kubeconfig] Использование существующего современного файла kubeconfig: "/etc/kubernetes/admin.conf"

[kubeconfig] Запись" controller-manager.conf "Файл kubeconfig

[kubeconfig] Запись «scheduler.conf» файла kubeconfig [etcd] Проверка работоспособности кластера Etcd

[kubelet] Загрузка конфигурации для кублета из ConfigMap «kubelet-config-1.13»в пространстве имен системы kube

[kubelet-start] Написание kubelet confiв файл "/var/lib/kubelet/config.yaml"

[kubelet-start] Запись файла среды kubelet с флагами в файл" /var/lib/kubelet/kubeadm-flags.env"

[kubelet-start] Активация службы kubelet

[tlsbootstrap] Ожидание, когда kubelet выполнит загрузку TLS ...

[patchnode] Загрузка информации о сокете CRI "/var / run / dockershim.sock "к объекту API узла" kb8-master2 "в качестве аннотации

[etcd] Объявлено о присоединении нового члена etcd к существующему кластеру etcd

[etcd] НаписалСтатический манифест Pod для локального экземпляра etcd в /etc/kubernetes/manifests/etcd.yaml"

[uploadconfig], хранящий конфигурацию, используемую в ConfigMap "kubeadm-config" в пространстве имен "kube-system" [kubelet-check] Прошло начальное время ожидания 40 с.

ошибка при загрузке конфигурации: Get https://10.240.0.16:6443/api/v1/namespaces/kube-system/configmaps/kubeadm-config: неожиданный EOF

10.240.0.16 - это IP-адрес LOAD BALANCER и что может быть причиной проблемы.Также я применил сетевые плагины weave к master1

Также я заметил, что api-сервер Master docker был завершен.

В главном узле я заметил следующий

sudo dockerпс-а |grep kube-apiserver

7629b25ba441 40a63db91ef8 "kube-apiserver --au…" 2 минуты назад Выйти (255) Минуту назад

Журналы sudo docker 7629b25ba441

Флаг --insecure-port устарел, этот флаг будет удален в следующей версии.

I1222 06: 53: 51.795759 1 server.go: 557] внешний хост не былуказан с использованием 10.240.0.4

I1222 06: 53: 51.796033 1 server.go: 146] Версия: v1.13.1

I1222 06: 53: 52.251060 1 plugins.go: 158] Загружен8 успешно изменяющихся контроллеров доступа в следующем порядке: NamespaceLifecycle, LimitRanger, ServiceAccount, NodeRestriction, Priority, DefaultTolerationSeconds, DefaultStorageClass, MutatingAdmissionWebhook.

I1222 06: 53: 52.251161 1 plugins.go: 161] Loinsaded 6: 61]успешная проверка контроллеров допускается в следующем порядке: LimitRanger, ServiceAccount, Priority, PersistentVolumeClaimResize, ValidatingAdmissionWebhook, ResourceQuota.I1222 06: 53: 52.253467 1 plugins.go: 158] Загружен 8 успешно измененных контроллеров доступа в следующем порядке: NamespaceLifecycle, LimitRanger, ServiceAccount, NodeRestriction, Priority, DefaultTolerationSeconds, DefaultStorageClass, MutatingAdmissionWebhook.

* 110806: 53: 52.253491 1 plugins.go: 161] Загружен 6 успешно проверяющих контроллеров доступа в следующем порядке: LimitRanger, ServiceAccount, Priority, PersistentVolumeClaimResize, ValidatingAdmissionWebhook, ResourceQuota.

F1222 06: 54: 12.2574901 storage_decorator.go: 57] Невозможно создать серверную часть хранилища: config (& {/ registry [https://10.240.0.4:2379] /etc/kubernetes/pki/apiserver-etcd-client.key / etc / kubernetes / pki / apiserver-etcd-client.crt /etc/kubernetes/pki/etcd/ca.crt true 0xc0006e19e0 5m0s 1m0s}), err (набрать tcp 10.240.0.4:2379: соединение: соединение отклонено)

1 Ответ

0 голосов
/ 28 декабря 2018

Как упомянул @Muthulingam в комментариях, проблема была решена путем замены конфигурации главного узла через файл kubeadm config соответствующей версией кластера в флаге kubernetesVersion.

...