У нас есть экземпляр HDFS, который находится в автономном режиме (без HA).Объем данных составляет около 1,4 ТБ.
Поскольку данные растут и находятся на одной точке сбоя, мы хотим переместить это в режим высокой доступности.
Для этого я сделал
- Остановка существующего кластера (namenode & datanode)
- Настройка узлов журнала (количество 3)
- Настройка HDFS с конфигурацией HA (на той же виртуальной машине, где не было HA)
- Запустить HDFS наменоде
Но, похоже, это не работает.Каждый раз получаю кучу проблем с памятью.Я пытался с 16 ГБ, но все еще не повезло.
Ниже ошибка получает
Я пропустил какой-то шаг?Или нам нужно выполнить это действие по-другому?
Также важно отметить, что у нас недостаточно диска для настройки другого HDFS HA и перемещения данных со старого узла на новый.