Тот факт, что вы создали класс Job, который требует, чтобы вы установили классы мапперов и редукторов, по определению заставляет вас выполнять mapreduce.
Если вы должны использовать Had oop, и если вы не хотите выполнять множественное отображение или уменьшение операции (например, не распараллеливать операцию), вам не нужно разбивать файл через InputFormat (который по умолчанию читает строку за строкой файла).
Если вы сделаете так, чтобы маппер считывал только одно разбиение, он обработает весь файл. Вы можете проанализировать весь файл в задаче mapper, вы можете передать его напрямую в редуктор и сделать это там.
По сути, вы просто вызываете повторную сериализацию данных в этот момент