В чем причина неудачного перезапуска контейнера для упругого поиска стручка kubernetes? - PullRequest
0 голосов
/ 30 августа 2018

Когда я пытаюсь запустить свой контейнер эластичного поиска через развертывания kubernetes, мой модуль эластичного поиска выходит из строя через некоторое время, хотя он работает отлично, когда напрямую запускается как контейнер докера с использованием docker-compose или Dockerfile. Вот что я получаю в результате kubectl get pods

NAME                  READY     STATUS    RESTARTS   AGE
es-764bd45bb6-w4ckn   0/1       Error     4          3m

ниже - результат kubectl describe pod

Name:           es-764bd45bb6-w4ckn
Namespace:      default
Node:           administrator-thinkpad-l480/<node_ip>
Start Time:     Thu, 30 Aug 2018 16:38:08 +0530
Labels:         io.kompose.service=es
            pod-template-hash=3206801662
Annotations:    <none> 
Status:         Running
IP:             10.32.0.8
Controlled By:  ReplicaSet/es-764bd45bb6
Containers:
es:
Container ID:   docker://9be2f7d6eb5d7793908852423716152b8cefa22ee2bb06fbbe69faee6f6aa3c3
Image:          docker.elastic.co/elasticsearch/elasticsearch:6.2.4
Image ID:       docker-pullable://docker.elastic.co/elasticsearch/elasticsearch@sha256:9ae20c753f18e27d1dd167b8675ba95de20b1f1ae5999aae5077fa2daf38919e
Port:           9200/TCP
State:          Waiting
  Reason:       CrashLoopBackOff
Last State:     Terminated
  Reason:       Error
  Exit Code:    78
  Started:      Thu, 30 Aug 2018 16:42:56 +0530
  Finished:     Thu, 30 Aug 2018 16:43:07 +0530
Ready:          False
Restart Count:  5
Environment:
  ELASTICSEARCH_ADVERTISED_HOST_NAME:  es
  ES_JAVA_OPTS:                        -Xms2g -Xmx2g
  ES_HEAP_SIZE:                        2GB
Mounts:
  /var/run/secrets/kubernetes.io/serviceaccount from default-token-nhb9z (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             False 
  ContainersReady   False 
  PodScheduled      True 
Volumes:
  default-token-nhb9z:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  default-token-nhb9z
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
             node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type     Reason     Age               From           Message
  ----     ------     ----              ----           -------
 Normal   Scheduled  6m                default-scheduler                     Successfully assigned default/es-764bd45bb6-w4ckn to administrator-thinkpad-l480
 Normal   Pulled     3m (x5 over 6m)   kubelet, administrator-thinkpad-l480  Container image "docker.elastic.co/elasticsearch/elasticsearch:6.2.4" already present on machine
 Normal   Created    3m (x5 over 6m)   kubelet, administrator-thinkpad-l480  Created container
 Normal   Started    3m (x5 over 6m)   kubelet, administrator-thinkpad-l480  Started container
 Warning  BackOff    1m (x15 over 5m)  kubelet, administrator-thinkpad-l480  Back-off restarting failed container

Вот мойasticsearc-deploy.yaml:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  annotations:
    kompose.cmd: kompose convert
    kompose.version: 1.1.0 (36652f6)
  creationTimestamp: null
  labels:
    io.kompose.service: es
  name: es
spec:
  replicas: 1
  strategy: {}
  template:
    metadata:
      creationTimestamp: null
      labels:
        io.kompose.service: es
    spec:
      containers:
      - env:
        - name: ELASTICSEARCH_ADVERTISED_HOST_NAME
          value: es
        - name: ES_JAVA_OPTS
          value: -Xms2g -Xmx2g
        - name: ES_HEAP_SIZE
          value: 2GB
        image: docker.elastic.co/elasticsearch/elasticsearch:6.2.4
        name: es
        ports:
        - containerPort: 9200
        resources: {}
      restartPolicy: Always
 status: {}

Когда я пытаюсь получить логи, используя kubectl logs -f es-764bd45bb6-w4ckn, я получаю

Error from server: Get https://<slave node ip>:10250/containerLogs/default/es-764bd45bb6-w4ckn/es?previous=true: dial tcp <slave node ip>:10250: i/o timeout 

В чем может быть причина и решение этой проблемы?

Ответы [ 2 ]

0 голосов
/ 14 ноября 2018

У меня была такая же проблема, может быть несколько причин для этой проблемы. В моем случае файл jar отсутствовал. @Lakshya уже ответил на эту проблему, я хотел бы добавить шаги, которые вы можете предпринять, чтобы устранить ее.

  1. Получить статус модуля, Команда - kubectl get pods
  2. Опишите модуль, чтобы он выглядел дальше - kubectl опишите модуль "имя-модуля" Последние несколько строк выводят вам события и где ваше развертывание не удалось
  3. Получить журналы для более подробной информации - kubectl журналы "pod-name"
  4. Получить журналы контейнеров - kubectl logs "pod-name" -c "container-name" Получить имя контейнера из вывода команды description pod

Если ваш контейнер работает, вы можете использовать команду kubectl exec -it для дальнейшего анализа контейнера

Надеюсь, это поможет членам сообщества в будущих проблемах.

0 голосов
/ 05 сентября 2018

Я нашел журналы, используя docker logs для контейнера es, и обнаружил, что es не запускается, поскольку для vm.max_map_count установлено очень низкое значение. Я изменил vm.max_map_count до желаемого значения, используя sysctl -w vm.max_map_count=262144, и после этого модуль начал работать.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...