Я согласен, что задача number mapp зависит от разделения входных данных, но в некоторых сценариях я мог видеть его немного другоеданные приведены ниже)
bin / hadoop jar contrib / streaming / hadoop-streaming-1.2.1.jar -D mapred.reduce.tasks = 0 -input /home/sample.csv -output/home/sample_csv112.txt -mapper /home/amitav/workpython/readcsv.py
Case-2 Итак, я ограничил задачу mapp до 1, выходной файл поставлялся правильно с одним выходным файлом, но один редуктор также запускался вэкран пользовательского интерфейса, хотя я ограничил работу редуктора.Команда приведена ниже.
bin / hadoop jar contrib / streaming / hadoop-streaming-1.2.1.jar -D mapred.map.tasks = 1 mapred.reduce.tasks = 0 -input / home /sample.csv -output /home/sample_csv115.txt -mapper /home/amitav/workpython/readcsv.py