Разница между использованием кучи NameNode и использованием кучи ResourceManager (пытаясь найти причину использования кучи NameNode)? - PullRequest
0 голосов
/ 01 февраля 2020

В чем разница между использованием кучи NameNode и использованием кучи ResourceManager? Я пытаюсь найти серьезную причину использования кучи NameNode.

На панели инструментов ambari я вижу ... enter image description here

при выполнении некоторых заданий sq oop , Не уверен, что вызывает столь интенсивное использование NN (не так уж много опыта работы с oop администратором)? Это необычное количество (только недавно замеченное)?

Кроме того, задания sq oop кажутся замороженными после 100% -ного завершения задачи mapreduce на ненормальное количество времени, чем обычно, например. видя ...

[2020-01-31 14:00:55,193]  INFO mapreduce.JobSubmitter: number of splits:12
[2020-01-31 14:00:55,402]  INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1579648183118_1085
[2020-01-31 14:00:55,402]  INFO mapreduce.JobSubmitter: Executing with tokens: []
[2020-01-31 14:00:55,687]  INFO conf.Configuration: found resource resource-types.xml at file:/etc/hadoop/3.1.0.0-78/0/resource-types.xml
[2020-01-31 14:00:55,784]  INFO impl.YarnClientImpl: Submitted application application_1579648183118_1085
[2020-01-31 14:00:55,837]  mapreduce.Job: The url to track the job: http://hw001.ucera.local:8088/proxy/application_1579648183118_1085/
[2020-01-31 14:00:55,837]  mapreduce.Job: Running job: job_1579648183118_1085
[2020-01-31 14:01:02,964]  mapreduce.Job: Job job_1579648183118_1085 running in uber mode : false
[2020-01-31 14:01:02,965]  mapreduce.Job:  map 0% reduce 0%
[2020-01-31 14:01:18,178]  mapreduce.Job:  map 8% reduce 0%
[2020-01-31 14:02:21,552]  mapreduce.Job:  map 17% reduce 0%
[2020-01-31 14:04:55,239]  mapreduce.Job:  map 25% reduce 0%
[2020-01-31 14:05:36,417]  mapreduce.Job:  map 33% reduce 0%
[2020-01-31 14:05:37,424]  mapreduce.Job:  map 42% reduce 0%
[2020-01-31 14:05:40,440]  mapreduce.Job:  map 50% reduce 0%
[2020-01-31 14:05:41,444]  mapreduce.Job:  map 58% reduce 0%
[2020-01-31 14:05:44,455]  mapreduce.Job:  map 67% reduce 0%
[2020-01-31 14:05:52,484]  mapreduce.Job:  map 75% reduce 0%
[2020-01-31 14:05:56,499]  mapreduce.Job:  map 83% reduce 0%
[2020-01-31 14:05:59,528]  mapreduce.Job:  map 92% reduce 0%
[2020-01-31 14:06:00,534] INFO mapreduce.Job:  map 100% reduce 0%

<...after some time longer than usual...>

[2020-01-31 14:10:05,446] INFO mapreduce.Job: Job job_1579648183118_1085 completed successfully

У меня была oop версия

[airflow@airflowetl root]$ hadoop version
Hadoop 3.1.1.3.1.0.0-78
Source code repository git@github.com:hortonworks/hadoop.git -r e4f82af51faec922b4804d0232a637422ec29e64
Compiled by jenkins on 2018-12-06T12:26Z
Compiled with protoc 2.5.0
From source with checksum eab9fa2a6aa38c6362c66d8df75774
This command was run using /usr/hdp/3.1.0.0-78/hadoop/hadoop-common-3.1.1.3.1.0.0-78.jar

Кто с большим опытом имел oop опыт знает, что здесь может происходить? Любой совет отладки?

1 Ответ

0 голосов
/ 02 февраля 2020

Куча Namenode в основном определяется количеством блоков файлов, которые хранятся в HDFS. В частности, много маленьких файлов или много файлов, записываемых одновременно, вызовут большую кучу.

ResourceManager не связан с namenode. Это куча будет зависеть от количества заданий YARN, которые активно отслеживаются

В кластере, который я обслуживал, куча namenode была 32G, и я думаю, что ResourceManager был только 8GB

...