Как масштабировать кластер Kubernetes на GKE? - PullRequest
0 голосов
/ 12 июня 2019

У меня есть кластер GKE с n узлами (в этом примере 2 узла с 1 ЦП каждый), где выполняется стресс-тест. Я хочу, чтобы они масштабировались без остановки бегущих капсул.

В кластере включено автоматическое масштабирование и включен пул узлов с автоматическим масштабированием.

После достижения примерно 50 модулей память / ЦП завершается, и кластер начинает создавать новый узел в другом пуле узлов. Почему не в текущем пуле?

После запуска нового узла кластер полностью падает:

  • ни один узел не работает;

  • некоторые узлы не могут быть расписаны этими предупреждениями:

    "Невозможно запланировать блоки: недостаточно памяти."

    "Невозможно составить расписание для модулей: узлы имели порты, которые модуль не переносил." (Я не сделал никакой порчи)

  • другие находятся в состоянии ожидания.

Чего я хочу достичь:

  • поддерживать работу существующих модулей без сбоев;
  • получить новые модули, созданные и сохраненные в состоянии ожидания, пока не будет создан новый узел;
  • новый узел создается в пуле узлов с шаблоном экземпляра, который я выбрал.

Ответы [ 2 ]

1 голос
/ 13 июня 2019

Похоже, что поведение, которое вы видите, является частью новой функции автоматического обеспечения узла кластерного автоматического масштабирования.Он автоматически управляет списком пулов узлов от вашего имени, поэтому вы видите созданный пул узлов.

Если вы просто хотите, чтобы существующий пул узлов увеличивался / уменьшался, вы должны отключить автоматическое предоставление узлов и просто установить параметры автоматического масштабирования вашего пула узлов (минимальное / максимальное количество узлов), чтобы автоскалер добавлял новыеузлы с существующим шаблоном экземпляра.

0 голосов
/ 13 июня 2019

Я отключил автоматическую инициализацию, а пул не масштабируется.Но он продолжает сбивать все модули при масштабировании.

...