google kubernetes двигатель узел простоя тайм-аут - PullRequest
0 голосов
/ 03 июня 2019

Мы используем GKE в одном из наших сервисов, который автоматически масштабируется.Рабочая нагрузка является переменной и в зависимости от рабочей нагрузки кластер масштабируется до сотен узлов.Тем не менее, я вижу, что когда рабочая нагрузка снижается, многие из бездействующих узлов все еще остаются живыми в течение очень долгого времени и, следовательно, увеличивают наш счет.Есть ли настройка, которую мы можем сделать, чтобы указать время, после которого узел будет завершен и удален из кластера?

1 Ответ

1 голос
/ 03 июня 2019

Процесс сокращения Kubernetes обычно включает задержку в качестве защиты от пиковых скачков трафика, которые могут в конечном итоге произойти при выполнении изменения размера.

Кроме того, есть несколько аспектов, касающихся автоскалер, которые необходимо учитывать. Пожалуйста, проверьте следующие документы для деталей:

Кроме того, при использовании автомасштабера GKE необходимо учитывать некоторые ограничения:

  • При уменьшении масштабирования автоскалер кластера соблюдает грациозное завершение период 10 минут для переназначения модулей узла на другой узел перед принудительным завершением узла.
  • Иногда кластерное автоматическое масштабирование не может быть полностью уменьшено, и после уменьшения существует дополнительный узел. Это может произойти, когда запланированы необходимые системные блоки на разные узлы, потому что нет триггера для любого из этих Стручки должны быть перемещены в другой узел. Смотри У меня есть пара узлов с низким уровнем использования, но они не уменьшаются. Почему? . Работать Вокруг этого ограничения вы можете настроить бюджет сбоя Pod .

Отказ от ответственности: Комментарии и мнения являются моими собственными, а не мнением моего работодателя.

...