Модуль диаграммы управления Elasticsearch застрял в состоянии «Init: CrashLoopBackOff» - PullRequest
0 голосов
/ 24 января 2019

Я развернул график руля для Elastic-stack на голометаллическом кластере k8s здесь https://github.com/helm/charts/tree/master/stable/elastic-stack

Сюда входит карта руля Elasticsearch здесь https://github.com/helm/charts/tree/master/stable/elasticsearch

Диаграмма стека Elastic вызывает Elasticsearch со значениями по умолчанию в values.yaml, и я не устанавливаю ничего другого.

После установки руля я вижу, что модули elastic-stack-elasticsearch-data-0 и elastic-stack-elasticsearch-master-0 застряли в Init:CrashLoopBackOff (после повторения Init:Error в течение некоторого времени).

kubectl describe pod показывает, что проблема в initContainer с именем chown. Код для этого контейнера здесь https://github.com/helm/charts/blob/master/stable/elasticsearch/templates/data-statefulset.yaml#L79

Соответствующий вывод describe pod не очень полезен:

State:          Waiting
  Reason:       CrashLoopBackOff
Last State:     Terminated
  Reason:       Error
  Exit Code:    1
  Started:      Thu, 24 Jan 2019 05:35:14 +0000
  Finished:     Thu, 24 Jan 2019 05:35:14 +0000
Ready:          False
Restart Count:  1
Environment:    <none>
Mounts:
  /usr/share/elasticsearch/data from data (rw)
  /var/run/secrets/kubernetes.io/serviceaccount from elastic-stack-elasticsearch-data-token-kgtsm (ro)

Я знаю, что он может вытащить образ, поскольку он вытащил его для предыдущего initContainer.

У меня такое ощущение, что это связано с Маунтами. Что именно делает /usr/share/elasticsearch/data from data (rw)? Я создал постоянные тома, названные es-data-volume и es-master-volume, и они были заявлены data-elastic-stack-elasticsearch-data-0 и data-elastic-stack-elasticsearch-master-0. Эта строка ищет том с именем data?

Я не знаю, где искать эту проблему. Какие могут быть возможные причины этой проблемы?

1 Ответ

0 голосов
/ 17 февраля 2019

У меня была такая же проблема, и она исправлена ​​для меня, я изменил настройки на своем NFS-сервере (sudo vim / etc / exports)

с:

/ data / nfs / kubernetes192.168.1.0/24(rw,sync,no_subtree_check)

to:

/ data / nfs / kubernetes 192.168.1.0/24(rw,insecure,sync,no_subtree_check,no_root_squash)100*

из того, что я понял, ключ no_root_squash

Надеюсь, это решит и вас за вас

...