Веб-браузер и веб-сервер сами по себе станут узким местом.Они должны буферизовать файл на этом сервере, а затем загрузить его в HDFS, по сравнению с тем, как работает прямая программа записи данных с hadoop fs -copyFromLocal
HUE (которая использует WebHDFS), иЯ не думаю, что есть простой способ для потоковой передачи такого большого размера файла через HTTP, существующий в HDFS, если только вы не можете выполнять частичную загрузку, и как только вы это сделаете, у вас будет несколько меньших файлов в HDFS, а не исходные 100.+ ГБ один (при условии, что вы не пытаетесь добавить к той же ссылке на файл в HDFS)