почему для HDFS ACL max_entries установлено значение 32? - PullRequest
0 голосов
/ 07 сентября 2018

В Hadoop HDFS, когда вы включили ACL, я обнаружил, что максимальное количество записей ACL установлено равным 32. Я получил исходный код здесь, в org / apache / hadoop / hdfs / server / namenode / AclTransformation.java:

private static final int MAX_ENTRIES = 32;

Что является основой для этого? Какие соображения? Можем ли мы заменить 32 на другое большее число? Я хочу перенастроить его.

1 Ответ

0 голосов
/ 07 сентября 2018

ACL были реализованы в HDFS-4685 - Реализация ACL в HDFS.

Насколько я могу судить, не было никакого проектного решения в отношении ограничения 32. Однако, поскольку большинство систем Hadoop работают на Linux, и эта функция была основана на ACL Linux, это значение, скорее всего, было заимствовано из ограничений на ext3. как упомянуто в Списки контроля доступа POSIX в Linux . Автор Andreas Grünbacher.

enter image description here

Далее в статье упоминается, что слишком большое количество ACL создает проблемы, а также показывает различия в производительности, связанные с включением ACL (см. Раздел « Производительность EA и ACL »).

...