не могу запланировать модуль prometheus-server на kubernetes, модуль сообщает, что портит, но узлы не имеют никакого загрязнения - PullRequest
0 голосов
/ 27 мая 2019

я получаю

0/7 nodes are available: 2 node(s) had taints that the pod didn't tolerate, 5 node(s) had volume node affinity conflict. 

для моего модуля Prometheus Server, но если я проверяю каждый узел, нет никаких проблем. и достаточно процессора и памяти, чтобы быть выделенным .. что я здесь пропускаю?

Я попытался удалить модули и даже объект развертывания, но ошибка все еще сохраняется

все узлы имеют 0 порок. это новая установка Прометея на новый кластер kubernetes файлы yaml, которые я использовал для работы до сих пор, когда мне нужно было развернуть новый кластер kubernetes

1 Ответ

1 голос
/ 27 мая 2019
Доступно

0/7 узлов: 2 узла (ов) имели порчи, которые модуль не переносил, 5 узлов имели конфликт схожести узлов тома.

Сообщение конкретное: проблема не в порче , которая удерживает ваши стручки прометея от ваших работников, а в томе тома . Если вы работаете в AWS, то, потому что ваш том находится в зоне доступности, ваши работники не являются (например, том us-west-2a и us-west-2c работников)

Кратчайший путь к успеху в вашей ситуации может состоять в том, чтобы воссоздать том в правильном A.Z. если он был пуст, или вручную создайте новый том и скопируйте данные в A.Z. что соответствует вашим работникам, или (конечно) раскрутить нового работника в A.Z. соответствует объему

все узлы имеют 0 порок.

Это точно не так по двум причинам: потому что планировщик четко говорит, что есть два узла с порками, и потому что, если вы специально не удалили их, мастера почти всегда (?) Снабжены node.kubernetes.io/master:NoSchedule порциями, явно сохраняемыми рабочие нагрузки на них

...