Ладья Ceph Kudeam: стартовал только один ceph-mon - PullRequest
0 голосов
/ 11 января 2019

После того, как kubectl применил -f cluster.yaml (файл примера yaml из хранилища rook GitHub), у меня работает только один pod rook-ceph-mon-a - ***, даже если я жду 1 час. Как я могу исследовать эту проблему?

NAME                              READY   STATUS    RESTARTS   AGE
rook-ceph-mon-a-7ff4fd545-qc2wl   1/1     Running   0          20m

А под бревнами одиночного бегущего контейнера

$ kubectl logs rook-ceph-mon-a-7ff4fd545-qc2wl -n rook-ceph

2019-01-14 17:23:40.578 7f725478c140  0 ceph version 13.2.2 

***

No filesystems configured

2019-01-14 17:23:40.643 7f723a050700  1 mon.a@0(leader).paxosservice(auth 0..0) refresh upgraded, format 3 -> 0
2019-01-14 17:23:40.643 7f723a050700  0 log_channel(cluster) log [DBG] : fsmap
2019-01-14 17:23:40.645 7f723a050700  0 mon.a@0(leader).osd e1 crush map has features 288514050185494528, adjusting msgr requires
2019-01-14 17:23:40.645 7f723a050700  0 mon.a@0(leader).osd e1 crush map has features 288514050185494528, adjusting msgr requires
2019-01-14 17:23:40.645 7f723a050700  0 mon.a@0(leader).osd e1 crush map has features 1009089990564790272, adjusting msgr requires
2019-01-14 17:23:40.645 7f723a050700  0 mon.a@0(leader).osd e1 crush map has features 288514050185494528, adjusting msgr requires
2019-01-14 17:23:40.643443 mon.a unknown.0 - 0 :  [INF] mkfs cb8db53e-2d36-42eb-ab25-2a0918602655
2019-01-14 17:23:40.645 7f723a050700  1 mon.a@0(leader).paxosservice(auth 1..1) refresh upgraded, format 0 -> 3
2019-01-14 17:23:40.647 7f723a050700  0 log_channel(cluster) log [DBG] : osdmap e1: 0 total, 0 up, 0 in
2019-01-14 17:23:40.648 7f723a050700  0 log_channel(cluster) log [DBG] : mgrmap e1: no daemons active
2019-01-14 17:23:40.635473 mon.a mon.0 10.32.0.43:6790/0 1 : cluster [INF] mon.a is new leader, mons a in quorum (ranks 0)
2019-01-14 17:23:40.641926 mon.a mon.0 10.32.0.43:6790/0 2 : cluster [INF] mon.a is new leader, mons a in quorum (ranks 0)

Ответы [ 2 ]

0 голосов
/ 09 августа 2019

Возможно, ваши старые данные (/ var / lib / rook) не пусты, я сталкиваюсь с ошибкой и удаляю эти файлы. это работает!

0 голосов
/ 14 января 2019

Предполагая, что вы следовали официальному руководству ceph-quickstart со страницы rook`s Github здесь , пожалуйста, сначала проверьте проблемные модули с командой:

kubectl -n rook-ceph get pod

и получить из них логи с помощью:

kubectl logs <pod_name>

Пожалуйста, обновите исходный вопрос, чтобы включить эти выходные данные команды.

...