Кто-нибудь видел снижение производительности при увеличении размера блока в Hadoop?Мы настраиваем кластер, и мы ожидаем, что в день будет приходить большое количество данных (100 ГБ), которые нам нужно хранить, поэтому я подумал, что мы можем увеличить размер блока на хорошую величину.Однако были опасения, что существует момент, когда это может замедлить выполнение заданий MapReduce.Единственный способ увидеть, как это происходит, - это если количество блоков было меньше, чем количество задач, которые можно запустить в кластере.
Есть ли у кого-нибудь дополнительная информация по этому вопросу?