Я определяю размер небольшого кластера Kubernetes в Google Cloud Platform, мне нужна следующая документация: https://cloud.google.com/kubernetes-engine/docs/how-to/flexible-pod-cidr#overview
Итак, у меня есть
- 3 узлы
- / 24 для модулей
- / 25 для служб
- 16 модулей на узел, заданных при создании кластера
При развертывании кластера и развернуть nginx реплик POD, я могу достичь максимум 30, в то время как я ожидал бы достичь 48 POD.
Согласно документации Google у меня должен быть / 27 (который я вижу назначенным на каждом узле) и диапазон узлов от 9 до 16. Теперь, хотя в среднем 10 узлов приемлемо, учитывая диапазон 9–16, я не понимаю, почему он не увеличивается выше этого числа.
Вот код для вашего обзора, я не возможность увидеть, есть ли другие ограничения:
gcloud compute networks subnets create $SERVICE_PROJECT1_SUB_K8S_NODES \
--network $SHAREDVPC --region $REGION \
--range 10.222.5.32/28 --secondary-range \
$SERVICE_PROJECT1_SUB_K8S_PODS=10.222.6.0/24, \
$SERVICE_PROJECT1_SUB_K8S_SERVICES=10.222.5.128/25 \
--enable-private-ip-google-access
gcloud beta container clusters create service1-k8s-cluster \
--zone $REGION \
--network projects/$HOST_PROJECT_ID/global/networks/$SHAREDVPC \
--subnetwork projects/$HOST_PROJECT_ID/regions/$REGION/subnetworks/$SERVICE_PROJECT1_SUB_K8S_NODES \
--cluster-secondary-range-name $SERVICE_PROJECT1_SUB_K8S_PODS \
--services-secondary-range-name $SERVICE_PROJECT1_SUB_K8S_SERVICES \
--enable-master-authorized-networks \
--master-authorized-networks 10.222.1.0/24 \
--enable-ip-alias \
--enable-private-nodes \
--enable-private-endpoint \
--master-ipv4-cidr $SERVICE_PROJECT1_SUB_K8S_MASTER \
--no-enable-basic-auth \
--no-issue-client-certificate \
--enable-master-global-access \
--num-nodes 1 \
--default-max-pods-per-node 16 \
--max-pods-per-node 16 \
--machine-type n1-standard-2
Ошибка, которую я вижу в POD
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal NotTriggerScaleUp 4m53s (x151 over 29m) cluster-autoscaler pod didn't trigger scale-up (it wouldn't fit if a new node is added):
Warning FailedScheduling 8s (x22 over 29m) default-scheduler 0/3 nodes are available: 3 Insufficient pods.