Я новичок в ceph, и я использовал его только в моей homelab с 3 узлами по 2 osd в каждом.Прочитав об автоматическом масштабировании Nautilus и pg_num, я включил это, но это, вероятно, было ошибкой.теперь мой кластер имеет этот статус.У кого-нибудь есть совет, как пройти через это?
ceph status
cluster:
id: b512a8d7-1956-4ef3-aa3e-6f24d08878cf
health: HEALTH_WARN
Reduced data availability: 256 pgs inactive
services:
mon: 3 daemons, quorum ce01,ce03,ce02 (age 17m)
mgr: ce02(active, since 48m), standbys: ce03, ce01
mds: cephfs:1 {0=ce03=up:active} 2 up:standby
osd: 6 osds: 6 up (since 17m), 6 in (since 5d)
data:
pools: 3 pools, 288 pgs
objects: 24 objects, 4.8 MiB
usage: 683 GiB used, 16 TiB / 16 TiB avail
pgs: 88.889% pgs unknown
256 unknown
32 active+clean