Экспериментировал с Кубернетесом / Ранчером и столкнулся с неожиданным поведением.Сегодня я намеренно надеваю шляпу chaos обезьяна и изучаю, как все происходит, когда что-то не получается.
Вот что я сделал:
1) Использование RancherПользовательский интерфейс, поддержите кластер из 3 узлов в Digital Ocean
Успех - через несколько минут у меня есть кластер из 3 узлов, видимый в Rancher.
2) Использование интерфейса RancherЯ удалил узел в «счастливом» сценарии, когда я нажимаю кнопку удаления соответствующего узла с помощью Rancher.
Через несколько минут у меня есть кластер из 2 узлов.Отлично.
3) Используя пользовательский интерфейс администратора Digital Ocean , я удаляю узел в сценарии «упс», как если бы системный администратор случайно удалил узел.
Вернувшись на ранчо (извините), я нажимаю здесь, чтобы просмотреть состояние кластера: 
К сожалениючерез три минуты я получаю тайм-аут шлюза 
Подробные таймауты в инспекторе сети Chrome 
Вот что kubectlговорит:
$ kubectl get nodes
Error from server (Timeout): the server was unable to return a response in the time allotted, but may still be processing the request (get nodes)
Итак, вопрос в том, что здесь произошло?У меня сложилось впечатление, что Kubernetes «самовосстанавливается», и даже если этот удаленный мной узел был лидером etcd, он в конечном итоге восстановится.Было около 2 часов - мне просто нужно подождать еще?