Хотя, уже слишком поздно, чтобы ответить на ваш вопрос, но только это может помочь другим. Сначала мы обсудим роль демонов Hadoop 1.X, а затем ваши проблемы.
1. Какова роль вторичного имени Узел
это не совсем резервный узел. он читает журналы редактирования и периодически создает обновленный файл fsimage для имени узла. он периодически получает метаданные с узла имени и сохраняет их и использует при сбое узла имени.
2. какова роль имени узла
это менеджер всех демонов. его мастер JVM, который работает на главном узле. он взаимодействует с узлами данных.
3. какова роль трекера работы
он принимает работу и распределяет ее по трекерам для обработки на узлах данных. это называется процессом карты
4. какова роль трекеров задач
он выполнит программу, предоставленную для обработки существующих данных в узле данных. этот процесс называется картой.
ограничения hadoop 1.X
- единичная точка отказа
который является узлом имени, поэтому мы можем поддерживать высококачественное оборудование для узла имени. если имя узла не удается, все будет недоступно
* Решения 1028 *
Решением для единой точки отказа является hadoop 2.X, который обеспечивает высокую доступность.
высокая доступность с hadoop 2.X
теперь ваши темы ....
Как мы можем восстановить все данные кластера, если что-нибудь случится?
если кластер не работает, мы можем перезапустить его.
Если какой-либо узел вышел из строя до завершения задания, то есть в задании отслеживания заданий есть ожидание, будет ли это задание продолжаться или перезапускаться с первого на свободном узле?
у нас есть 3 реплики данных по умолчанию (я имею в виду блоки), чтобы получить высокую доступность, это зависит от администратора, сколько копий он установил ... так что трекеры заданий будут продолжать с другой копией данных на другом узле данных
можем ли мы использовать программу на C в Mapreduce (например, Bubble sort в mapreduce)?
в основном mapreduce - это механизм исполнения, который решает или обрабатывает проблему больших данных распределенным образом (хранение плюс обработка). мы выполняем обработку файлов и все другие основные операции, используя программирование mapreduce, поэтому мы можем использовать любой язык, на котором мы можем обрабатывать файлы в соответствии с требованиями.
архитектура hadoop 1.X
hadoop 1.x имеет 4 основных демона
Я только что попробовал. Надеюсь, это поможет вам так же, как и другим.
Предложения / улучшения приветствуются.