Ошибка Kubernetes: узлы имеют недостаточно памяти, но на самом деле имеют достаточно памяти - PullRequest
0 голосов
/ 18 апреля 2020

У меня есть модуль kubernetes, который должен заменить старый модуль, но застрял в ожидании следующих событий на модуле:

  Normal   TriggeredScaleUp   14m (x56 over 1d)   cluster-autoscaler  pod triggered scale-up: [{nodes.sand.k8s.local 4->5 (max: 7)}]
  Normal   NotTriggerScaleUp  3m (x1838 over 1d)  cluster-autoscaler  pod didn't trigger scale-up (it wouldn't fit if a new node is added)
  Warning  FailedScheduling   1m (x8556 over 1d)  default-scheduler   0/5 nodes are available: 2 Insufficient memory, 3 PodToleratesNodeTaints.

Значение 3 PodToleratesNodeTaints имеет смысл, но 2 Insufficient memory нет, потому что на обоих узлах доступно достаточно памяти.

Запрос памяти модуля:

    Limits:
      cpu:     1
      memory:  1717986918400m
    Requests:
      cpu:      100m
      memory:   600Mi

Node # 1 mem stats:

Capacity:
 cpu:     1
 memory:  2050944Ki
 pods:    110
Allocatable:
 cpu:     1
 memory:  1948544Ki
 pods:    110


 Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests      Limits
  --------  --------      ------
  cpu       320m (32%)    2 (200%)
  memory    1700Mi (89%)  3960261836800m (198%)

Node # 2 stats:

Capacity:
 cpu:     1
 memory:  2050944Ki
 pods:    110
Allocatable:
 cpu:     1
 memory:  1948544Ki
 pods:    110


Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests      Limits
  --------  --------      ------
  cpu       320m (32%)    2 (200%)
  memory    1700Mi (89%)  3960261836800m (198%)

Я попытался удалить некоторые действующие модули, чтобы посмотреть, может ли это правильно инициировать развертывание для ожидающих модулей, но он просто заново инициализирует новые версии этих модулей.

Недавний вывод kubectl get events показывает, что ЦС продолжает пытаться развернуть в течение прошлого дня:

LAST SEEN   FIRST SEEN   COUNT     NAME                                                           KIND      SUBOBJECT   TYPE      REASON              SOURCE               MESSAGE
1m          1d           8575      foolish-dingo-sand-web-57c44b7b94-zm974.16062dd687c20c37   Pod                   Warning   FailedScheduling    default-scheduler    0/5 nodes are available: 2 Insufficient memory, 3 PodToleratesNodeTaints.
2m          1d           1850      foolish-dingo-sand-web-57c44b7b94-zm974.16062e4cb3a94085   Pod                   Normal    NotTriggerScaleUp   cluster-autoscaler   pod didn't trigger scale-up (it wouldn't fit if a new node is added)
19m         1d           56        foolish-dingo-sand-web-57c44b7b94-zm974.16062e4f3ce0a190   Pod                   Normal    TriggeredScaleUp    cluster-autoscaler   pod triggered scale-up: [{nodes.sand.k8s.local 4->5 (max: 7)}]

Есть ли что-то, чего мне не хватает, или другой способ отладки глубже или как-то принудительного развертывания?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...