Удаление кластера EKS с некорректной работой eksctl требует ручного удаления ресурсов, таких как ManagedNodeGroups - PullRequest
0 голосов
/ 06 августа 2020

Я запускаю кластер на EKS и следую руководству по развертыванию кластера с помощью команды eksctl create cluster --name prod --version 1.17 --region eu-west-1 --nodegroup-name standard-workers --node-type t3.medium --nodes 3 --nodes-min 1 --nodes-max 4 --ssh-access --ssh-public-key public-key.pub --managed.

Как только я закончу свои тесты (в основном устанавливая, а затем удаляя Helm-диаграммы), и у меня есть чистый кластер без запущенных заданий, я затем пытаюсь удалить его с помощью eksctl delete cluster --name prod, вызывая эти ошибки.

[ℹ]  eksctl version 0.25.0
[ℹ]  using region eu-west-1
[ℹ]  deleting EKS cluster "test"
[ℹ]  deleted 0 Fargate profile(s)
[✔]  kubeconfig has been updated
[ℹ]  cleaning up AWS load balancers created by Kubernetes objects of Kind Service or Ingress
[ℹ]  2 sequential tasks: { delete nodegroup "standard-workers", delete cluster control plane "test" [async] }
[ℹ]  will delete stack "eksctl-test-nodegroup-standard-workers"
[ℹ]  waiting for stack "eksctl-test-nodegroup-standard-workers" to get deleted
[✖]  unexpected status "DELETE_FAILED" while waiting for CloudFormation stack "eksctl-test-nodegroup-standard-workers"
[ℹ]  fetching stack events in attempt to troubleshoot the root cause of the failure
[✖]  AWS::CloudFormation::Stack/eksctl-test-nodegroup-standard-workers: DELETE_FAILED – "The following resource(s) failed to delete: [ManagedNodeGroup]. "
[✖]  AWS::EKS::Nodegroup/ManagedNodeGroup: DELETE_FAILED – "Nodegroup standard-workers failed to stabilize: [{Code: Ec2SecurityGroupDeletionFailure,Message: DependencyViolation - resource has a dependent object,ResourceIds: [[REDACTED]]}]"
[ℹ]  1 error(s) occurred while deleting cluster with nodegroup(s)
[✖]  waiting for CloudFormation stack "eksctl-test-nodegroup-standard-workers": ResourceNotReady: failed waiting for successful resource state

Чтобы исправить их, мне пришлось вручную удалить AWS VPC, а затем ManagednodeGroups , чтобы затем удалить все снова.

Я попытался снова выполнить описанные выше действия (создание и удаление с помощью команд, представленных в официальной документации по началу работы), но при удалении получаю те же ошибки.

Кажется очень странным, что мне приходится вручную удалять ресурсы, когда я делаю что-то подобное. Есть ли решение этой проблемы, я что-то делаю не так, или это стандартная процедура?

Все команды запускаются через официальный eksctl cli, и я следую официальному развертыванию eksctl

1 Ответ

0 голосов
/ 07 сентября 2020

Если вы используете группы управляемых узлов и подсети publi c, обязательно обновите настройки su bnet для сопоставления IP-адресов publi c при запуске до 20 апреля 22 апреля . Вы можете следить за процессом обновления групп управляемых узлов в нашей дорожной карте GitHub .

. Если вы хотите узнать больше о сетевых конфигурациях и назначении IP-адресов для кластеров EKS, посетите блог в сети кластера для рабочих узлов .

Также вы можете попробовать:

  1. Go до EC2> Сетевые интерфейсы
  2. Отсортируйте по VP C, найдите интерфейсы, назначенные вашему VP C
  3. Интерфейс, который нужно удалить, должен быть единственным «доступным», он также должен быть единственным, назначенным для проблемных c удаленный доступ SG. Если этому описанию соответствует более одного интерфейса, удалите их все.

Посмотрите: eks-managed-node-groups , eksctl-node-group .

...