Совместимость HDFS с различными размерами дисков на компьютерах с датоданными - PullRequest
0 голосов
/ 07 января 2020

У нас есть кластер HDP версии 2.6.5 с компьютерами узлов данных (HDFS)

hdfs version
Hadoop 2.7.3.2.6.5.0-292
Subversion git@github.com:hortonworks/hadoop.git -r 3091053c59a62c82d82c9f778c48bde5ef0a89a1
Compiled by jenkins on 2018-05-11T07:53Z
Compiled with protoc 2.5.0
From source with checksum abed71da5bc89062f6f6711179f2058
This command was run using /usr/hdp/2.6.5.0-292/hadoop/hadoop-common-2.7.3.2.6.5.0-292.jar

В кластере есть 52 компьютеров узлов данных, в то время как каждый узел данных включает в себя 10 дисков и каждый диск размер 10TB

Недавно мы добавили еще один 30 компьютеров с узлами данных с 10 дисками 4TB каждого диска в кластер, так что теперь у нас есть 82 узлов данных

**enter image description here**

Доза HDFS может управлять несоответствием размера дисков в кластере узла данных?

Причина, по которой я задаю этот вопрос Это потому, что мы обеспокоены тем, что новые диски с 4TB на новых узлах данных могут быть заполнены до 100% полной емкости (поскольку диски составляют 40% от размера старых дисков)

...