Запуск кластера kubernetes в AWS через EKS.Кажется, что все работает, как ожидалось, но только проверяет все журналы, чтобы проверить.Я перескочил на один из рабочих узлов и заметил кучу ошибок при просмотре службы kubelet
Oct 09 09:42:52 ip-172-26-0-213.ec2.internal kubelet[4226]: E1009 09:42:52.335445 4226 kubelet_node_status.go:377] Error updating node status, will retry: error getting node "ip-172-26-0-213.ec2.internal": Unauthorized
Oct 09 10:03:54 ip-172-26-0-213.ec2.internal kubelet[4226]: E1009 10:03:54.831820 4226 kubelet_node_status.go:377] Error updating node status, will retry: error getting node "ip-172-26-0-213.ec2.internal": Unauthorized
Все узлы отображаются как готовые, но я не уверен, почему эти ошибки появляются.Имеет 3 рабочих узла, и все 3 имеют одинаковые ошибки kubelet (имена хостов, очевидно, отличаются)
Дополнительная информация.Может показаться, что ошибка исходит из этой строки в kubelet_node_status.go
node, err := kl.heartbeatClient.CoreV1().Nodes().Get(string(kl.nodeName), opts)
if err != nil {
return fmt.Errorf("error getting node %q: %v", kl.nodeName, err)
}
Из рабочих, которые я могу выполнить, можно получить узлы, используя kubectl, просто отлично:
kubectl get --kubeconfig=/var/lib/kubelet/kubeconfig nodes
NAME STATUS ROLES AGE VERSION
ip-172-26-0-58.ec2.internal Ready <none> 1h v1.10.3
ip-172-26-1-193.ec2.internal Ready <none> 1h v1.10.3