Как очистить «Зарезервированное пространство для реплик» без перезапуска служб Had oop - PullRequest
1 голос
/ 25 мая 2020

Как узнать, почему « Зарезервированное пространство для реплик » постоянно увеличивается и как ограничить пространство для этого типа кеша? Мы обнаружили, что « Зарезервированное пространство для реплик » превышает используемое пространство без DFS (в прошлом месяце). Но мы не выяснили, почему: (

Мы знаем, как вычислить "Non DFS", но " Зарезервированное пространство для реплик " показывает размер пространства, который не соответствует фактически занятому by "Non DFS". Например, у нас есть том 6 ТБ:

  1. « Используемая DFS » занимает 4 ТБ
  2. « Свободное место * 1017. * "на томе составляет 2 ТБ (эта информация получается по" df -h")
  3. " Без DFS"занимает 2 ТБ (почему ??? если" df -h"показывает, что у нас есть 2 ТБ свободного места)

В настоящее время, чтобы освободить место, выделенное для этого типа кэша (« Зарезервированное пространство для реплик » ), нам необходимо перезапустить службы datanode.Но, на наш взгляд, это не решение!

Мы используем HDP v3.0.1 , HDFS v3.1 , Oracle JDK 8u181

1 Ответ

0 голосов
/ 03 июня 2020

Для людей, столкнувшихся с подобными проблемами. Прежде всего вы должны понять суть проблемы. Для этого прочтите описание следующих проблем:

Следующие ссылки будут полезны, чтобы понять, что такое реплика блока:

Решения

  1. Найдите неправильное программное обеспечение, которое часто нарушало соединение с Had oop во время процессов записи или добавления
  2. Попытаться изменить политику репликации (рискованно)
  3. Обновить Had oop до последней версии

Вы не можете сбросить «Зарезервированное пространство для реплик» без перезапуска служб Had oop!

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...