Не удается смонтировать файловую систему cephfs, потому что файловая система отсутствует. Доступ к файлам в любом случае? - PullRequest
0 голосов
/ 10 января 2019

Наш кластер ceph работал до сих пор, пока я, к сожалению, не удалил файловую систему:

# ceph fs rm <cephfsname> --yes-i-really-mean-it

Я больше не могу получить доступ к данным в пулах.

# ceph fs ls
No filesystems enabled

Статус:

# ceph -w
  cluster:
    id:     123456789ab-abcd-49c3-a85c-4aac367b8678
    health: HEALTH_WARN
            noscrub,nodeep-scrub flag(s) set
  services:
    mon: 5 daemons, quorum
cephnode1,wicki-cephnode1,wicki-cephnode2,cephnode3,cephnode4
    mgr: cephnode3(active), standbys: openattic
    osd: 20 osds: 20 up, 20 in
         flags noscrub,nodeep-scrub
  data:
    pools:   10 pools, 6656 pgs
    objects: 9.22M objects, 15.8TiB
    usage:   15.9TiB used, 20.4TiB / 36.3TiB avail
    pgs:     6656 active+clean*

MDS not longer running. Metadata seams to be damaged.
# cephfs-journal-tool journal export ~/backup.bin
Error ((22) Invalid argument)2019-01-09 08:01:57.435743 7f8c0f89e040 -1 main: Couldn't determine MDS rank.
# rados -N cephfs -p datapool df
POOL_NAME USED    OBJECTS CLONES COPIES  MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS   RD      WR_OPS  WR
data      10.4TiB 7385357      0 7385357                  0       0    0 12556674 4.85TiB 1625600 2.92TiB
# rados -N cephfs -p metadata df
POOL_NAME USED    OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS  RD      WR_OPS WR
metadata  79.2MiB  429352      0 858704                  0       0   0 6912563 28.6GiB 601149 36.6GiB

Есть ли способ спасти файлы в пулах с новым cephfs? Могу ли я добавить новый cephfs ceph fs new и импортировать пулы?

Или я могу сохранить файлы в любом месте?

...