Когда-то go я создал кластер ceph с ладьей на кластере с одним узлом k3s, просто чтобы попробовать, и он работал очень хорошо. Я смог предоставить хранилище другим модулям через cephfs. Я следовал примеру, приведенному в документации по быстрому старту rook, чтобы сделать это.
Однако через два дня go, без какого-либо вмешательства с моей стороны, кластер ceph перестал работать. Кажется, у модуля менеджера ceph есть одна проблема: мой модуль rook-ceph-mgr-a-6447569f69-5prdw
cra sh в l oop, и вот его события:
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning BackOff 41m (x888 over 6h5m) kubelet, localhost Back-off restarting failed container
Warning Unhealthy 36m (x234 over 6h14m) kubelet, localhost Liveness probe failed: Get http://10.42.0.163:9283/: dial tcp 10.42.0.163:9283: connect: connection refused
Warning FailedMount 31m (x2 over 31m) kubelet, localhost MountVolume.SetUp failed for volume "rook-ceph-mgr-a-keyring" : failed to sync secret cache: timed out waiting for the condition
Warning FailedMount 31m (x2 over 31m) kubelet, localhost MountVolume.SetUp failed for volume "rook-ceph-mgr-token-bf88n" : failed to sync secret cache: timed out waiting for the condition
Warning FailedMount 31m (x2 over 31m) kubelet, localhost MountVolume.SetUp failed for volume "rook-config-override" : failed to sync configmap cache: timed out waiting for the condition
Normal Killing 28m (x2 over 30m) kubelet, localhost Container mgr failed liveness probe, will be restarted
Normal Pulled 28m (x3 over 31m) kubelet, localhost Container image "ceph/ceph:v14.2.7" already present on machine
Normal Created 28m (x3 over 31m) kubelet, localhost Created container mgr
Normal Started 28m (x3 over 31m) kubelet, localhost Started container mgr
Warning BackOff 6m47s (x50 over 22m) kubelet, localhost Back-off restarting failed container
Warning Unhealthy 63s (x28 over 30m) kubelet, localhost Liveness probe failed: Get http://10.42.0.163:9283/: dial tcp 10.42.0.163:9283: connect: connection refused
Я не знаю, является ли failed to sync secret cache
причина или следствие. Это проблема ладьи или k3s?
Нет вывода с k3s kubectl logs rook-ceph-mgr-a-6447569f69-5prdw -n rook-ceph
(добавление -p ничего не меняет)
Спасибо за вашу помощь, это мой первый вопрос по stackoverflow, надеюсь, что это было сделано правильно:)