Я немного застрял на шаге Запуск рабочего узла в руководстве AWS EKS .И, честно говоря, на данный момент, я не знаю, что не так.Когда я делаю kubectl получить SVC, я получаю свой кластер, так что это хорошая новость.У меня есть это в моем aws-auth-cm.yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: aws-auth
namespace: kube-system
data:
mapRoles: |
- rolearn: arn:aws:iam::Account:role/rolename
username: system:node:{{EC2PrivateDNSName}}
groups:
- system:bootstrappers
- system:nodes
Вот мой конфиг в .kube
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: CERTIFICATE
server: server
name: arn:aws:eks:region:account:cluster/clustername
contexts:
- context:
cluster: arn:aws:eks:region:account:cluster/clustername
user: arn:aws:eks:region:account:cluster/clustername
name: arn:aws:eks:region:account:cluster/clustername
current-context: arn:aws:eks:region:account:cluster/clustername
kind: Config
preferences: {}
users:
- name: arn:aws:eks:region:account:cluster/clustername
user:
exec:
apiVersion: client.authentication.k8s.io/v1alpha1
args:
- token
- -i
- clustername
command: aws-iam-authenticator.exe
Я запустил экземпляр EC2 с рекомендованным AMI.
Несколько замечаний:
- Я запустил свой кластер с помощью CLI,
- Я создал пару ключей,
- Я не использую CloudformationСтек,
- Я прикрепил эти политики к роли моего EC2: AmazonEKS_CNI_Policy, AmazonEC2ContainerRegistryReadOnly, AmazonEKSWorkerNodePolicy.
Это моя первая попытка kubernetes и EKS, поэтому, пожалуйста, имейте в виду,:).Спасибо за вашу помощь!