Я пытаюсь установить ciuster объектного хранилища Ceph с помощью Cephadm.
Создание OSD выполнено, но не удается запустить mds и radosgw для s3-совместимой базы данных хранилища.
Вот текущий статус .
cluster:
id: d9736f06-c199-11ea-a62b-3863bb337da3
health: HEALTH_ERR
1 MDSs report slow metadata IOs
Module 'cephadm' has failed: auth get failed: failed to find client.crash.cephnode2 in keyring retval: -2
mon cephnode1 is low on available space
noup,nodown flag(s) set
Reduced data availability: 97 pgs inactive
213 slow ops, oldest one blocked for 8135 sec, daemons [osd.1,mon.cephnode1] have slow ops.
OSD count 2 < osd_pool_default_size 3
services:
mon: 2 daemons, quorum cephnode1,cephnode2 (age 4d)
mgr: cephnode1.gmqhcr(active, since 51m), standbys: cephnode2.ugvtye
mds: cephfs:1 {0=cephfs.cephnode2.ztqnsa=up:creating} 1 up:standby
osd: 2 osds: 2 up (since 2h), 2 in (since 2h)
flags noup,nodown
task status:
scrub status:
mds.cephfs.cephnode2.ztqnsa: idle
data:
pools: 4 pools, 97 pgs
objects: 0 objects, 0 B
usage: 1.0 GiB used, 744 GiB / 745 GiB avail
pgs: 100.000% pgs unknown
97 unknown
Имеется проблема с неизвестными pgs, модуль cephadm завершился ошибкой, mds все еще находится в начальной стадии. Когда я запустил команду radosgw «radosgw-admin realm create --rgw-realm = myorg --default», в CLI ceph ничего не появилось. Пожалуйста, помогите с этой проблемой.