Кубернетес: GKE |HPA не масштабирует модули, хотя использование памяти больше / равно целевому значению - PullRequest
0 голосов
/ 14 февраля 2019

У нас есть кластер GKE (1.11) и реализован HPA на основе использования памяти для модулей.Во время нашей деятельности по тестированию мы наблюдали, что поведение HPA не согласовано, HPA не масштабирует модули, даже если целевое значение выполнено.Мы также заметили, что события HPA не дают нам никаких данных ответов (связанных с масштабированием или уменьшением масштаба информации).

Пример

kubectl get hpa

NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE

com-manh-cp-organization Deployment/com-manh-cp-organization 95%/90% 1 25 1 1d

kubectl описать hpa com-manh-cp-Organization

Name:                                                     com-manh-cp-organization
Namespace:                                                default
Labels:                                                   app=com-manh-cp-organization
                                                          stereotype=REST
Annotations:                                              kubectl.kubernetes.io/last-applied-configuration:
                                                            {"apiVersion":"autoscaling/v2beta1","kind":"HorizontalPodAutoscaler","metadata":{"annotations":{},"labels":{"app":"com-manh-cp-organizatio...
CreationTimestamp:                                        Tue, 12 Feb 2019 18:02:12 +0530
Reference:                                                Deployment/com-manh-cp-organization
Metrics:                                                  ( current / target )
  resource memory on pods  (as a percentage of request):  95% (4122087424) / 90%
Min replicas:                                             1
Max replicas:                                             25
Deployment pods:                                          1 current / 1 desired
Conditions:
  Type            Status  Reason              Message
  ----            ------  ------              -------
  AbleToScale     True    ReadyForNewScale    the last scale time was sufficiently old as to warrant a new scale
  ScalingActive   True    ValidMetricFound    the HPA was able to successfully calculate a replica count from memory resource utilization (percentage of request)
  ScalingLimited  False   DesiredWithinRange  the desired count is within the acceptable range
Events:           <none>

  • Версия кластера: 1.11.6
  • Облачный сервис: GKE
  • Метрика: память
  • Target: targetAverageUtilization

Любые входные данные будут высоко оценены и позволят намзнать, сможем ли мы отладить реализацию HPA.

Спасибо.

1 Ответ

0 голосов
/ 14 февраля 2019

При вычислении номеров реплик есть значения для порогового значения в HPA, как указано в этой ссылке .

По умолчанию этот допуск равен 0,1.И в вашей конфигурации вы, возможно, не достигнете порога, когда вы положите 90% из-за этого.Я бы порекомендовал вам изменить метрики до 80% и посмотреть, работает ли она.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...