Везде говорится, что Spark и Flink должны заменить Hadoop MapReduce, потому что они лучше работают в интерактивных рабочих нагрузках и поддерживают потоковую передачу. Однако что, если у меня есть только сценарий использования пакетной обработки?
Есть ли альтернативы для общей пакетной обработки Hadoop MapReduce? Я действительно не смог найти инструмент для пакетной обработки больших данных (я не считаю Hive, потому что это слой SQL на MapReduce, а также Giraph, потому что он специализируется на графиках).
Кажется, что каждый инструмент больших данных нацелен на потоковую обработку, и Hadoop остается в качестве инструмента пакетной обработки. Это правда или есть какие-то альтернативы? Как еще можно выполнить пакетную обработку больших данных без Hadoop MapReduce?