Наш кластер ceph работал до сих пор, пока я, к сожалению, не удалил файловую систему:
# ceph fs rm <cephfsname> --yes-i-really-mean-it
Я больше не могу получить доступ к данным в пулах.
# ceph fs ls
No filesystems enabled
Статус:
# ceph -w
cluster:
id: 123456789ab-abcd-49c3-a85c-4aac367b8678
health: HEALTH_WARN
noscrub,nodeep-scrub flag(s) set
services:
mon: 5 daemons, quorum
cephnode1,wicki-cephnode1,wicki-cephnode2,cephnode3,cephnode4
mgr: cephnode3(active), standbys: openattic
osd: 20 osds: 20 up, 20 in
flags noscrub,nodeep-scrub
data:
pools: 10 pools, 6656 pgs
objects: 9.22M objects, 15.8TiB
usage: 15.9TiB used, 20.4TiB / 36.3TiB avail
pgs: 6656 active+clean*
MDS not longer running. Metadata seams to be damaged.
# cephfs-journal-tool journal export ~/backup.bin
Error ((22) Invalid argument)2019-01-09 08:01:57.435743 7f8c0f89e040 -1 main: Couldn't determine MDS rank.
# rados -N cephfs -p datapool df
POOL_NAME USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
data 10.4TiB 7385357 0 7385357 0 0 0 12556674 4.85TiB 1625600 2.92TiB
# rados -N cephfs -p metadata df
POOL_NAME USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
metadata 79.2MiB 429352 0 858704 0 0 0 6912563 28.6GiB 601149 36.6GiB
Есть ли способ спасти файлы в пулах с новым cephfs?
Могу ли я добавить новый cephfs ceph fs new и импортировать пулы?
Или я могу сохранить файлы в любом месте?