здоровье: HEALTH_ERR - как это исправить без потери данных? - PullRequest
0 голосов
/ 26 февраля 2020

получил статус ceph:

# ceph status
  cluster:
    id:     b683c5f1-fd15-4805-83c0-add6fbb7faae
    health: HEALTH_ERR
            1 backfillfull osd(s)
            8 pool(s) backfillfull
            50873/1090116 objects misplaced (4.667%)
            Degraded data redundancy: 34149/1090116 objects degraded (3.133%), 3 pgs degraded, 3 pgs undersized
            Degraded data redundancy (low space): 6 pgs backfill_toofull

  services:
    mon: 3 daemons, quorum tb-ceph-2-prod,tb-ceph-4-prod,tb-ceph-3-prod
    mgr: tb-ceph-1-prod(active)
    osd: 6 osds: 6 up, 6 in; 6 remapped pgs
    rgw: 4 daemons active

  data:
    pools:   8 pools, 232 pgs
    objects: 545.1 k objects, 153 GiB
    usage:   728 GiB used, 507 GiB / 1.2 TiB avail
    pgs:     34149/1090116 objects degraded (3.133%)
             50873/1090116 objects misplaced (4.667%)
             226 active+clean
             3   active+undersized+degraded+remapped+backfill_toofull
             3   active+remapped+backfill_toofull

  io:
    client:   286 KiB/s rd, 2 op/s rd, 0 op/s wr

Вот статусы экранного меню:

# ceph osd df
ID CLASS WEIGHT  REWEIGHT SIZE    USE     AVAIL   %USE  VAR  PGS
 2   hdd 0.09769  1.00000 100 GiB  32 GiB  68 GiB 32.38 0.55  30
 5   hdd 0.32230  1.00000 330 GiB 220 GiB 110 GiB 66.71 1.13 122
 0   hdd 0.32230  1.00000 330 GiB 194 GiB 136 GiB 58.90 1.00 125
 1   hdd 0.04390  0.95001  45 GiB  43 GiB 2.5 GiB 94.53 1.60  11
 3   hdd 0.09769  1.00000 100 GiB  42 GiB  58 GiB 42.37 0.72  44
 4   hdd 0.32230  0.95001 330 GiB 196 GiB 134 GiB 59.43 1.01 129
                    TOTAL 1.2 TiB 728 GiB 507 GiB 58.94
MIN/MAX VAR: 0.55/1.60  STDDEV: 19.50

Я пробовал эти команды:

 ceph osd pool set default.rgw.buckets.data pg_num 32
 ceph osd pool set default.rgw.buckets.data pgp_num 32

Но это не так помочь тоже. Я думаю, что pg_num 32 слишком мало для моего количества OSD, но не уверен, безопасно ли устанавливать его больше, когда состояние здоровья ошибочно

1 Ответ

0 голосов
/ 02 марта 2020

Ваше OSD # 1 заполнено. Диск довольно маленький, и вам, вероятно, следует заменить его на диск 100G, как и два других, которые вы используете. Чтобы исправить ситуацию, взгляните на управляющие команды Ceph .

Команда ceph osd reweight-by-utilization отрегулирует вес для чрезмерно используемых OSD и активирует восстановление баланса PG. См. Также это сообщение в блоге , описывающее эту ситуацию.

...