Что-то не так с моим кластером хранения GlusterFS, использующим реплицированный том.
Я пытался несколько дней во многих отношениях.Я надеюсь, что кто-то может мне помочь.
Сначала я создаю распределенный том, используя только один кирпич, используя следующую команду:
gluster volume create my_vol transport tcp 192.168.100.80:/opt/my_brick force
Затем я пишу большой объем данных (например,1 ГБ) в этот том клиентом GlusterFS FUSE.
После этого я изменяю этот том с распределенного тома на реплицированный том с помощью команды, приведенной ниже:
gluster volume add-brick my_vol replica 2 192.168.100.81:/opt/my_brick force
Quickly GlusterFSговорит мне, что «объем add-brick: успех».Тем не менее, я обнаружил, что синхронизация данных по-прежнему происходит в фоновом режиме между 192.168.100.80 и 192.168.100.81.
Теперь я пытаюсь удалить первый кирпич из этого тома с помощью следующей команды:
yes | gluster volume remove-brick my_vol replica 1 192.168.100.80:/opt/my_brick force
И GlusterFS говорит мне, что «удаление кирпича (-ов) может привести к потере данных. Хотите продолжить? (Да / нет) принудительное принятие тома удаления кирпича: успех».
Итак, Я обнаружил, что синхронизация данных прервана, а некоторые данные потеряны навсегда !
Есть ли какая-то команда для проверки, синхронизирует ли GlusterFS фон данных ?
Интересно, как я могу безопасно выполнить операцию удаления кирпича, что означает отсутствие потери данных.
Большое спасибо.