Я хочу использовать несколько кластеров с моим kubectl
, поэтому я либо помещаю все в одну конфигурацию, либо добавляю один конфигурационный файл на кластер в переменную KUBECONFIG
env. Это нормально.
Моя проблема в том, что у меня есть пользователи с одинаковыми именами пользователей для каждого кластера, но они используют разные client-key-data
для каждого кластера (контекста), но каким-то образом контекст использует этого пользователя. имя, поэтому не ясно, какой пользователь принадлежит к какому кластеру.
Лучше приведите пример:
Кластер 1:
apiVersion: v1
kind: Config
clusters:
- cluster:
server: https://10.11.12.13:8888
name: team-cluster
contexts:
- context:
cluster: team-cluster
user: kubernetes-admin
name: kubernetes-admin@team-cluster
users:
- name: kubernetes-admin
user:
client-certificate-data: XXYYYZZZ
client-key-data: XXXYYYZZZ
Кластер 2:
apiVersion: v1
kind: Config
clusters:
- cluster:
server: https://10.11.12.14:8888
name: dev-cluster
contexts:
- context:
cluster: dev-cluster
user: kubernetes-admin
name: kubernetes-admin@dev-cluster
users:
- name: kubernetes-admin
user:
client-certificate-data: AABBCC
client-key-data: AABBCC
Как видите, в обоих кластерах есть пользователь с именем kubernetes-admin
, но из контекста не ясно, кто из них. Возможно, есть другой способ дать ему уникальный идентификатор, который используется контекстом.
Возможно, решение очевидно, но я не нашел ни одного примера для такого случая. Спасибо за любую помощь.