Rook Ceph Manager нездоровый на кластере K3S - PullRequest
0 голосов
/ 24 апреля 2020

Когда-то go я создал кластер ceph с ладьей на кластере с одним узлом k3s, просто чтобы попробовать, и он работал очень хорошо. Я смог предоставить хранилище другим модулям через cephfs. Я следовал примеру, приведенному в документации по быстрому старту rook, чтобы сделать это.

Однако через два дня go, без какого-либо вмешательства с моей стороны, кластер ceph перестал работать. Кажется, у модуля менеджера ceph есть одна проблема: мой модуль rook-ceph-mgr-a-6447569f69-5prdw cra sh в l oop, и вот его события:

Events:
  Type     Reason       Age                    From                Message
  ----     ------       ----                   ----                -------
  Warning  BackOff      41m (x888 over 6h5m)   kubelet, localhost  Back-off restarting failed container
  Warning  Unhealthy    36m (x234 over 6h14m)  kubelet, localhost  Liveness probe failed: Get http://10.42.0.163:9283/: dial tcp 10.42.0.163:9283: connect: connection refused
  Warning  FailedMount  31m (x2 over 31m)      kubelet, localhost  MountVolume.SetUp failed for volume "rook-ceph-mgr-a-keyring" : failed to sync secret cache: timed out waiting for the condition
  Warning  FailedMount  31m (x2 over 31m)      kubelet, localhost  MountVolume.SetUp failed for volume "rook-ceph-mgr-token-bf88n" : failed to sync secret cache: timed out waiting for the condition
  Warning  FailedMount  31m (x2 over 31m)      kubelet, localhost  MountVolume.SetUp failed for volume "rook-config-override" : failed to sync configmap cache: timed out waiting for the condition
  Normal   Killing      28m (x2 over 30m)      kubelet, localhost  Container mgr failed liveness probe, will be restarted
  Normal   Pulled       28m (x3 over 31m)      kubelet, localhost  Container image "ceph/ceph:v14.2.7" already present on machine
  Normal   Created      28m (x3 over 31m)      kubelet, localhost  Created container mgr
  Normal   Started      28m (x3 over 31m)      kubelet, localhost  Started container mgr
  Warning  BackOff      6m47s (x50 over 22m)   kubelet, localhost  Back-off restarting failed container
  Warning  Unhealthy    63s (x28 over 30m)     kubelet, localhost  Liveness probe failed: Get http://10.42.0.163:9283/: dial tcp 10.42.0.163:9283: connect: connection refused

Я не знаю, является ли failed to sync secret cache причина или следствие. Это проблема ладьи или k3s?

Нет вывода с k3s kubectl logs rook-ceph-mgr-a-6447569f69-5prdw -n rook-ceph (добавление -p ничего не меняет)

Спасибо за вашу помощь, это мой первый вопрос по stackoverflow, надеюсь, что это было сделано правильно:)

...