У меня есть рабочее объявление terraform с одним google_container_cluster и одним google_container_node_pool
Когда мое развертывание kubectl создает нагрузку на узел, автоматически создается другой google_container_node_pool.
Как мне контролировать это [ограничение одного или n пулов узлов на кластер]
Я мог только найти способ ограничить узлы в node_pool, их минимальные и максимальные значения установлены в 1
resource "google_container_node_pool" "rtp_container_cluster_node_pool"
{
name = "node-pool"
zone = "${var.zone}"
cluster = "${google_container_cluster.rtp_container_cluster.name}"
node_config {
machine_type = "${var.machine_type_node}"
disk_size_gb = "${var.disk_size_gb_node}"
local_ssd_count = "${var.local_ssd_count_node}"
oauth_scopes = "${var.oauth_scopes}"
}
# Autoscale
autoscaling {
min_node_count = "${var.minNodeCount_node}"
max_node_count = "${var.maxNodeCount_node}"
}
}
resource "google_container_cluster" "rtp_container_cluster" {
name = "${var.container_cluster_name}-master"
zone = "${var.zone}"
initial_node_count = "${var.cluster_count}"
additional_zones = "${var.additional_zones}"
network = "${var.network}"
subnetwork = "${var.subnetwork}"
enable_kubernetes_alpha = "${var.enable_kubernetes_alpha}"
min_master_version = "${var.min_master_version}"
master_auth {
username = "${var.username}"
password = "${var.password}"
}
node_config {
machine_type = "${var.machine_type}"
disk_size_gb = "${var.disk_size_gb}"
local_ssd_count = "${var.local_ssd_count}"
oauth_scopes = "${var.oauth_scopes}"
tags = "${var.tags}"
labels {
purpose = "dev-rtp-poc-cluster"
}
}
addons_config {
http_load_balancing {
disabled = "${var.http_load_balancing_disable}"
}
horizontal_pod_autoscaling {
disabled = "${var.horizontal_pod_autoscaling_disable}"
}
}
}