Что поставить для запросов / ограничений ресурсов Kubernetes? - PullRequest
0 голосов
/ 15 мая 2018

Я видел статей, рекомендующих , что запросы ресурсов / лимит должны быть реализованы. Тем не менее, я не нашел ни одного, который обсуждал бы на какие числа для заполнения.

Например, рассмотрим контейнер, использующий нулевой процессор в режиме ожидания, 80% при обычных пользовательских запросах и 200% процессора при некоторых редких запросах:

  • Если в качестве запроса ЦП указать 2000 м, то ядро ​​большую часть времени будет бездействовать
  • С другой стороны, если я запрашиваю 800 м, и несколько модулей одновременно достигают предела своего ЦП, тогда издержки переключения контекста пнут в

Есть также такие случаи, как

  • Внутренние инструменты, которые простаивают большую часть времени, а затем переходят на 200% при активном использовании
  • Приложения с разным временем пиковой нагрузки. Например, SaaS, который люди используют в рабочее время, и чат-бот, который начинает загружаться после того, как люди уходят с работы. Было бы хорошо, если бы они могли разделить неиспользованную емкость.

В идеале вертикальный модуль автоматического масштабирования , вероятно, решит эти проблемы автоматически, но сегодня он все еще в альфа-версии.

1 Ответ

0 голосов
/ 15 мая 2018

Что я делал, так это использовал telegraf для сбора информации об использовании ресурсов и использовал 95-й процентиль, когда ограничение установлено в 1 ЦП и удвоил запрос памяти.

Screenshot

Проблема с этим методом заключается в том, что

  • Приложение, которое использует многоядерные процессоры при запуске, а затем в течение всей жизни под ядром запускается дольше.Я заметил, что 2-х минутный запуск Spring стал 5-минутным
  • Приложения, которые используются редко, будут зарезервированы меньше ресурсов, и поэтому при запуске они должны полагаться на переполнение емкости.Это может быть проблемой, если у него всплеск популярности.
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...