Это происходит один или два раза в неделю, без применения каких-либо команд. Я просто получаю предупреждение о том, что многие из модулей отключены.
Настройки кластера, созданные как минимум за 40 дней go:
gcloud container \
clusters create "yourclustername" \
--project "yourprojectname" \
--zone "yourregion-zone" \
--no-enable-basic-auth \
--release-channel "regular" \
--machine-type "e2-standard-2" \
--image-type "COS" \
--disk-type "pd-ssd" \
--disk-size "20" \
--metadata disable-legacy-endpoints=true \
--scopes "https://www.googleapis.com/auth/devstorage.read_only","https://www.googleapis.com/auth/logging.write","https://www.googleapis.com/auth/monitoring","https://www.googleapis.com/auth/servicecontrol","https://www.googleapis.com/auth/service.management.readonly","https://www.googleapis.com/auth/trace.append" \
--num-nodes "2" \
--enable-stackdriver-kubernetes \
--enable-ip-alias \
--network "projects/yourprojectname/global/networks/yournetwork" \
--subnetwork "projects/yourprojectname/regions/yourregion/subnetworks/yournetwork" \
--default-max-pods-per-node "110" \
--enable-autoscaling \
--min-nodes "2" \
--max-nodes "4" \
--no-enable-master-authorized-networks \
--addons HorizontalPodAutoscaling,HttpLoadBalancing,NodeLocalDNS,ApplicationManager \
--enable-autoupgrade \
--enable-autorepair \
--max-surge-upgrade 1 \
--max-unavailable-upgrade 0 \
--enable-shielded-nodes
Состояние узла:
Я удаляю модули с этой ошибкой, и GKE создает другую, конечно, это не решение, по крайней мере 4 минуты простоя. Как это решить? Нужно ли что-то вроде ситца или фланели даже на GKE?