Копс, кубенет кластер, автомасштабирование не работает - PullRequest
0 голосов
/ 22 февраля 2019

У меня есть кластер kops с максимумом 75 узлов и добавлен с cluster autoscaler .Он использует kubenet сети.В настоящее время все перестало работать - т.е. уменьшение масштаба больше не происходит.

Кластер работает на максимальной мощности, то есть 75 узлов, даже почти без нагрузки.Не уверен, с чего начать, чтобы устранить проблему.

См. Следующие ошибки в модуле автоматического масштабирования кластера

    I0222 01:45:14.327164       1 static_autoscaler.go:97] Starting main loop
W0222 01:45:14.770818       1 static_autoscaler.go:150] Cluster is not ready for autoscaling
I0222 01:45:15.043126       1 leaderelection.go:199] successfully renewed lease kube-system/cluster-autoscaler
I0222 01:45:17.121507       1 leaderelection.go:199] successfully renewed lease kube-system/cluster-autoscaler
I0222 01:45:19.126665       1 leaderelection.go:199] successfully renewed lease kube-system/cluster-autoscaler
I0222 01:45:21.327581       1 leaderelection.go:199] successfully renewed lease kube-system/cluster-autoscaler
I0222 01:45:23.331802       1 leaderelection.go:199] successfully renewed lease kube-system/cluster-autoscaler
I0222 01:45:24.775124       1 static_autoscaler.go:97] Starting main loop
W0222 01:45:25.085442       1 static_autoscaler.go:150] Cluster is not ready for autoscaling

Авто масштабирование работало нормально.

Обновление,также смотрите следующие ошибки при запуске kops validate cluster

    VALIDATION ERRORS
    KIND    NAME                MESSAGE
    Node    ip-172-20-32-173.ec2.internal   node "ip-172-20-32-173.ec2.internal" is not ready
 ...

I0221 22:16:02.688911    2403 node_conditions.go:60] node "ip-172-20-51-238.ec2.internal" not ready: &NodeCondition{Type:NetworkUnavailable,Status:True,LastHeartbeatTime:2019-02-21 22:15:56 -0500 EST,LastTransitionTime:2019-02-21 22:15:56 -0500 EST,Reason:NoRouteCreated,Message:RouteController failed to create a route,}

1 Ответ

0 голосов
/ 24 февраля 2019

Я обнаружил, что проблема заключалась в том, что мой кластер перешел в нездоровое состояние из-за этого ограничения в таблицах маршрутизации AWS VPC. Мой кластер масштабировался до 75 узлов, а затем стал нездоровым и не смог

По ссылке

Одно важное ограничение при использовании сети kubenet состоит в том, что таблица маршрутизации AWS не может иметь более 50 записей, что устанавливает ограничение в 50 узлов.на кластер.

...