У меня есть поисковый кластер Elastic с 2 клиентами и 3 узлами хранения данных, работающими в Kubernetes.
Я хотел масштабировать поисковый кластер Elastic, для которого я добавил новый узел и установил службы kubernetes, а новый узел является частью кластера kubernetes, который виден в узлах get kubectl.
Программное обеспечение Elastic Search запускается как контейнер, который определяется как контроллер службы и репликации.
Поэтому я масштабировал существующий контроллер репликации от 3 до 4 реплик, чтобы контейнер устанавливался в новом узле на основе определенной метки.
Теперь, когда я проверяю состояние кластера, чтобы увидеть, является ли новый узел частью существующего кластера эластичного поиска, он не показывает и выдает ошибку «исключение главного узла». Может быть разделен мозгом.
Теперь я изменил значение «minimal_master_node» с 2 на 3, используя метод curl PUT, и вейл настроен нормально.
Тем не менее проблема не решена, и я не уверен, в чем проблема ..
Discover.zen.ping.multicast установлен в false
Unicast установлен в 127.0.0.1 в контейнере.
Я проверил журналы докера в новом узле и заметил, что он инициализирован, однако при закрытии соединения транспортного уровня с ошибкой .. не удалось связаться с мастером ..
Я могу выполнять sftp, scp и ping для других узлов из нового узла.
Перепробовал все возможные подсказки, но не понял, где ошибка ..
Я использую версию Elastic search 2.4 ..
Любые советы помогут мне.