В общем, Hadoop заставляет вас рассматривать весь каталог как выходной, а не отдельный файл. Нет никакого способа напрямую контролировать имя файла, будь то потоковое или обычное Java-задание.
Однако ничто не мешает вам выполнить это разделение и переименовать себя после того, как работа завершена. Вы можете $ HADOOP dfs -cat path / to / your / output / directory / part- * и передать его вашему скрипту, который разбивает содержимое по ключам и записывает его в новые файлы.