Кубернетес стручки не видят друг друга - PullRequest
0 голосов
/ 04 июня 2019

Я развернул кластер ElasticSearch в кластере Kubernetes, используя диаграмму Хелма из здесь и после выполнения следующей команды Хелма:

helm install stable/elasticsearch --name crv-elasticsearch  --set data.persistence.storageClass=nfs-client,data.storage=10Gi --set master.persistence.storageClass=nfs-client --set cluster.name=k8s-elk

У меня есть 3 стручка, которые созданы. Но если я загляну в логи, я найду ошибки:

[o.e.d.z.ZenDiscovery     ] [crv-elasticsearch-master-0] not enough master nodes discovered during pinging (found [[Candidate{node={crv-elasticsearch-master-0}{4pQmoRkoTK28uWahaOo6Xw}{Bl_5yXubSQCld9eQ0zykgw}{10.233.67.55}{10.233.67.55:9300}, clusterStateVersion=-1}]], but needed [2]), pinging again
[2019-06-04T16:12:16,206][WARN ][o.e.d.z.UnicastZenPing   ] [crv-elasticsearch-master-0] failed to resolve host [crv-elasticsearch-discovery]
java.net.UnknownHostException: crv-elasticsearch-discovery

Кажется, что эластичные капсулы не видят друг друга.

У меня есть кластер K8s, развернутый поверх VMWare vSphere.

1 Ответ

0 голосов
/ 05 июня 2019

Хорошо.Я нашел ответ на свою проблему, и он связан не с ElasticSearch или Helm, а с Kubernetes и Flannel.

Я развернул кластер Kubernetes, состоящий из 6 виртуальных машин: 3 мастера и 3 узла.Виртуальные машины были созданы с использованием технологии VMWare.После этого кластер Kubernetes был подготовлен с использованием KubeSpray, где Flannel была реализацией для сети Kubernetes.

Фланелю нужен порт 8472 (значение по умолчанию) для выполнения каких-либо действий, связанных с Vxlan, и вы найдете свойство flannel_backend_port в книге игр KubeSpray Ansible.VMWare также использует порт 8472 для Vxlan, поэтому вы должны изменить значение flannel_backend_port с 8472 на другое (указать явный порт, отличный от 8472) и повторно запустить KubeSpray Ansible playbook или просто применить изменение, используя * 1007.*.

Это была настоящая проблема в моем случае.Будьте осторожны, потому что в моем контексте настоящей проблемой была VMWare, поэтому вполне возможно, что если вы не используете VMWare, чтобы не столкнуться с этой проблемой.

...