Как исправить ошибку "Faulty" в георепликации glusterfs - PullRequest
0 голосов
/ 26 декабря 2018

Я пытаюсь настроить георепликацию glusterfs, следуя инструкциям из документации glusterfs .В моей настройке у меня есть два узла на главной стороне и один узел на ведомой стороне.После того, как я ввожу команду Глостер тома Гео-репликация mastervolume slavenode :: slavevolume start , чтобы запустить гео-репликацию, статус будет показан ниже:

Мастер-узел-2 gv0 / data/ brick1 / gv0 root ssh: // Slave-node-1 :: gv0 N / A Faulty

Если я смотрю команду (наблюдаю за состоянием гео-репликации тома кластера), состояние меняется с Faulty на Activeи вернемся к неисправности.Активный статус показан ниже:

Главный узел-2 gv0 / data / brick1 / gv0 root ssh: // Slave-node-1 :: gv0 Slave-node-1 Активный гибридный обход N / A

Журналы имеют следующую ошибку:

[2018-12-26 01: 39: 57.773381] I [gsyncdstatus (/ data / brick1 / gv0): 245: set_worker_crawl_status] GeorepStatus: Статус сканирования: гибридное сканирование [2018-12-26 01: 39: 58.774770] I [master (/ data / brick1 / gv0): 1368: сканирование] _GMaster: обработка журнала изменений xsync / var / lib / misc / glusterfsd /gv0 / SSH% 3A% 2F% 2Froot% 40192.168.115.215% 3Agluster% 3A% 2F% 2F127.0.0.1% 3Agv0 / 430af6dc2d4f6e41e4786764428f83dd / XSync / XSync-CHANGELOG.1545788397 [2018-12-26 01: 39: 59,249290] Е[ресурс (/ data / brick1 / gv0): 234: errlog] Popen: команда "rsync -aR0 - на месте --files-from = - --super --stats --numeric-ids --no-implied-dirs--xattrs --acls. -e ssh -oPasswordAuthentication = no -oStrictHostKeyChecking = no -i /var/lib/glusterd/geo-replication/secret.pem -p 22 -oControlMaster = auto -S / tmp / gsyncd-aux-SSH-cexLuj / 722b9cf6c96014bed67371d01a23d439.sock --compress root @ Slave-node-1: / proc / 6983 / cwd ", возвращенный с 3 [2018-12-26 01: 39: 59.249869] I [syncdutils (/ data / brick1 / gv0): 238:завершить]: выход.[2018-12-26 01: 39: 59.251211] I [repce (/ data / brick1 / gv0): 92: service_loop] RepceServer: завершается при достижении EOF.[2018-12-26 01: 39: 59.251513] I [syncdutils (/ data / brick1 / gv0): 238: завершить]: выход.[2018-12-26 01: 39: 59.685758] I [монитор (монитор): 357: монитор] Монитор: работник (/ data / brick1 / gv0) умер на этапе запуска [2018-12-26 01: 39: 59.688673]Я [gsyncdstatus (монитор): 241: set_worker_status] GeorepStatus: Статус работника: Дефект

Когда я проверил файлы на томе, файлы в мастере реплицируются на ведомый.

После этого, если я создаю новый файл, файл синхронизируется с подчиненным томом.Но если я удаляю файл или изменяю его содержимое, это не отражается в ведомом устройстве.

Любые указатели приветствуются.

...