aks репортаж "Недостаточно стручков" - PullRequest
0 голосов
/ 19 октября 2018

Я прошел учебник Azure Cats & Dogs, описанный здесь , и на последнем этапе я получаю сообщение об ошибке, когда приложения запускаются в AKS.Kubernetes сообщает, что у меня есть недостаточно стручков, но я не уверен, почему это будет.Несколько недель назад я без проблем пробежался по этому же учебнику.

$ kubectl apply -f azure-vote-all-in-one-redis.yaml
deployment.apps/azure-vote-back created
service/azure-vote-back created
deployment.apps/azure-vote-front created
service/azure-vote-front created

$ kubectl get pods
NAME                                READY   STATUS    RESTARTS   AGE
azure-vote-back-655476c7f7-mntrt    0/1     Pending   0          6s
azure-vote-front-7c7d7f6778-mvflj   0/1     Pending   0          6s

$ kubectl get events
LAST SEEN   TYPE      REASON                 KIND         MESSAGE
3m36s       Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
84s         Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
70s         Warning   FailedScheduling       Pod          skip schedule deleting pod: default/azure-vote-back-655476c7f7-l5j28
9s          Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
53m         Normal    SuccessfulCreate       ReplicaSet   Created pod: azure-vote-back-655476c7f7-kjld6
99s         Normal    SuccessfulCreate       ReplicaSet   Created pod: azure-vote-back-655476c7f7-l5j28
24s         Normal    SuccessfulCreate       ReplicaSet   Created pod: azure-vote-back-655476c7f7-mntrt
53m         Normal    ScalingReplicaSet      Deployment   Scaled up replica set azure-vote-back-655476c7f7 to 1
99s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set azure-vote-back-655476c7f7 to 1
24s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set azure-vote-back-655476c7f7 to 1
9s          Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
3m36s       Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
53m         Normal    SuccessfulCreate       ReplicaSet   Created pod: azure-vote-front-7c7d7f6778-rmbqb
24s         Normal    SuccessfulCreate       ReplicaSet   Created pod: azure-vote-front-7c7d7f6778-mvflj
53m         Normal    ScalingReplicaSet      Deployment   Scaled up replica set azure-vote-front-7c7d7f6778 to 1
53m         Normal    EnsuringLoadBalancer   Service      Ensuring load balancer
52m         Normal    EnsuredLoadBalancer    Service      Ensured load balancer
46s         Normal    DeletingLoadBalancer   Service      Deleting load balancer
24s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set azure-vote-front-7c7d7f6778 to 1

$ kubectl get nodes
NAME                       STATUS   ROLES   AGE    VERSION
aks-nodepool1-27217108-0   Ready    agent   7d4h   v1.9.9

Единственное, что я могу думать об этом, это то, что у меня теперь работают и другие (более крупные) кластеры, иОсновная причина, по которой я снова прошел этот урок по Cats & Dogs, заключалась в том, что сегодня я столкнулся с той же проблемой с другими своими кластерами.Является ли это проблемой с ограничением ресурсов для моей учетной записи Azure?

Обновление 10-20 / 3: 15 PST: Обратите внимание, как все эти три кластера показывают, что они используют один и тот же пул узлов, даже если онибыли созданы в разных группах ресурсов.Также обратите внимание, как вызов get-credentials для gem2-cluster сообщает об ошибке.У меня ранее был кластер, называемый gem2-cluster, который я удалил и воссоздал под тем же именем (фактически я удалил группу ресурсов wole).Какой правильный процесс для этого?

$ az aks get-credentials --name gem1-cluster --resource-group gem1-rg
Merged "gem1-cluster" as current context in /home/psteele/.kube/config

$ kubectl get nodes -n gem1
NAME                       STATUS   ROLES   AGE     VERSION
aks-nodepool1-27217108-0   Ready    agent   3h26m   v1.9.11

$ az aks get-credentials --name gem2-cluster --resource-group gem2-rg
A different object named gem2-cluster already exists in clusters

$ az aks get-credentials --name gem3-cluster --resource-group gem3-rg
Merged "gem3-cluster" as current context in /home/psteele/.kube/config

$ kubectl get nodes -n gem1
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11

$ kubectl get nodes -n gem2
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11

$ kubectl get nodes -n gem3
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11

Ответы [ 3 ]

0 голосов
/ 20 ноября 2018

На что настроены ваши max-pods?Это нормальная ошибка, когда вы достигли предела количества стручков на узел.

Вы можете проверить текущее максимальное количество стручков на узел с помощью:

$ kubectl get nodes -o yaml | grep pods
  pods: "30"
  pods: "30"

И ваше текущее значение с помощью:

$ kubectl get pods --all-namespaces | grep Running | wc -l
  18
0 голосов
/ 10 июля 2019

Я нажал это, потому что я превысил максимальное количество стручков, я узнал, сколько я мог обработать, выполнив:

$ kubectl get nodes -o json | jq -r .items[].status.allocatable.pods | paste -sd+ - | bc
0 голосов
/ 19 октября 2018

Убедитесь, что вы не превышаете основные ограничения для своей подписки.

az vm list-usage --location "<location>" -o table

Если вы можете запросить дополнительную квоту, https://docs.microsoft.com/en-us/azure/azure-supportability/resource-manager-core-quotas-request

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...