Я пытаюсь реализовать задание MapReduce, где каждый из сопоставителей будет занимать 150 строк текстового файла, и все сопоставители будут выполняться одновременно; кроме того, оно не должно давать сбои, независимо от того, сколько задач с картами не сработало.
Вот часть конфигурации:
JobConf conf = new JobConf(Main.class);
conf.setJobName("My mapreduce");
conf.set("mapreduce.input.lineinputformat.linespermap", "150");
conf.set("mapred.max.map.failures.percent","100");
conf.setInputFormat(NLineInputFormat.class);
FileInputFormat.addInputPath(conf, new Path(args[0]));
FileOutputFormat.setOutputPath(conf, new Path(args[1]));
Проблема в том, что hadoop создает маппер для каждой отдельной строки текста, кажется, что они запускаются последовательно, и если один из них не выполняется, задание не выполняется.
Из этого я делаю вывод, что примененные мною настройки не имеют никакого эффекта.
Что я сделал не так?