Как сравнить информацию из разных файлов в MapReduce? - PullRequest
1 голос
/ 20 апреля 2019

Цель состоит в том, чтобы узнать, насколько файл X похож на файлы y1, y2, ..., yn.

Для каждого файла я извлекаю информацию и храню ее в структурах;скажем, из файла я делаю подсчет слов и сохраняю результаты в HashMap<String, Integer> wordCount (есть другие структуры, хранящие другую информацию).

Так что мне нужно сгенерировать wordCount из fileX;извлекать wordCount из файла Y (предварительно сгенерированного и записанного в файлы HDFS);посчитайте, насколько эти два слова похожи (я не могу сделать построчное различие; мне нужно сходство в процентах).

FileX фиксирован и его необходимо сравнить с N fileY.

Итак, моя идея заключалась в следующем:

Job1: вычислить информацию о fileX и записать ее в HDFS.

Job2 (chainMapper map1-map2):

Map1: прочитать HashMap<String, Integer> wordCount из файлаX;передача структур в Map2.

Map2: получает 2 входа, структуры fileX, путь к каталогу fileYs.

Map2 вычисляет сходство HashMap<String, Integer> wordCountX и HashMap<String, Integer> wordCountY;редуктор получает все значения сходства и упорядочивает их.

Я читал на Hadoop - The definitive guide of Tom White и в Интернете тоже о MultipleInputs, но речь идет не о двух входах в 1 маппер, а о дифференцировании мапперов на основевходы.Поэтому я хочу спросить, как переслать два значения в один картограф;Я рассмотрел использование распределенного кэша, но это не что-то полезное для этой проблемы;и наконец, как быть уверенным, что каждый маппер получает свой файл Y.

Я пытался обновить глобальный HashMap<String, Integer> wordCount, но когда начинается новое задание, он не может получить доступ к этой структуре (или, лучше, он пуст).

public class Matching extends Configured implements Tool{

    private static HashMap<String, Integer> wordCountX;

    public static void main(String[] args) throws Exception {

        int res = ToolRunner.run(new Matching(), args);
        System.exit(res);

    } //end main class

    public int run(String[] args) throws Exception {
        ...
    }

}

РЕДАКТИРОВАТЬ:

Ответ вот это хорошее решение.

Я добавляю результирующий фрагмент кода.

Запуск задания:

//configuration and launch of job
        Job search = Job.getInstance(getConf(), "2. Merging and searching");
        search.setJarByClass(this.getClass());

        MultipleInputs.addInputPath(search, creationPath, TextInputFormat.class);
        MultipleInputs.addInputPath(search, toMatchPath, TextInputFormat.class);

        FileOutputFormat.setOutputPath(search, resultPath);
        search.setNumReduceTasks(Integer.parseInt(args[2]));

        search.setMapperClass(Map.class);
        search.setReducerClass(Reduce.class);

        search.setMapOutputKeyClass(ValuesGenerated.class);
        search.setMapOutputValueClass(IntWritable.class);
        //TODO
        search.setOutputKeyClass(NullWritable.class);
        search.setOutputValueClass(Text.class);

        return search.waitForCompletion(true) ? 0 : 1;

Слияние карт (в фазе очистки):

@Override
        public void cleanup(Context context) throws IOException, InterruptedException {

            InputSplit split = context.getInputSplit();
            Class<? extends InputSplit> splitClass = split.getClass();

            FileSplit fileSplit = null;
            if (splitClass.equals(FileSplit.class)) {
                fileSplit = (FileSplit) split;
            } else if (splitClass.getName().equals(
                    "org.apache.hadoop.mapreduce.lib.input.TaggedInputSplit")) {
                // begin reflection hackery...

                try {
                    Method getInputSplitMethod = splitClass
                            .getDeclaredMethod("getInputSplit");
                    getInputSplitMethod.setAccessible(true);
                    fileSplit = (FileSplit) getInputSplitMethod.invoke(split);
                } catch (Exception e) {
                    // wrap and re-throw error
                    throw new IOException(e);
                }

                // end reflection hackery
            }

            String filename = fileSplit.getPath().getName();
            boolean isKnown;

            /*
            the two input files are nominated dinamically;
            the file0 has some name "023901.txt",
            the file1 is the output of a precedent MR job, and is
            something like "chars-r-000000"
            */
            if(filename.contains(".txt")) {
                isKnown = false;
            }
            else {
                isKnown = true;
            }

            if(isKnown) { //file1, known

                ValuesGenerated.setName(new Text(name));

                //other values set
                //...

                context.write(ValuesGenerated, new IntWritable(1));

            }
            else { //file0, unknown

                ValuesGenerated.setName(new Text("unknown"));

                //other values set
                //...

                context.write(ValuesGenerated, new IntWritable(0));

            }           
        }

Фаза сокращения:

public static class Reduce extends Reducer<ValuesGenerated, IntWritable, NullWritable, Text> {

            @Override
            public void reduce(ValuesGenerated key, Iterable<IntWritable> values, Context context) 
                    throws IOException, InterruptedException {

                ValuesGenerated known;
                ValuesGenerated unk;

                String toEmit = null;

                for (IntWritable value : values) {

                    if(value.get() == 1) { //known
                        known = key;
                        toEmit = key.toString();
                        toEmit += "\n " + value;
                        context.write(NullWritable.get(), new Text(toEmit));
                    }
                    else { //unknown
                        unk = key;
                        toEmit = key.toString();
                        toEmit += "\n " + value;
                        context.write(NullWritable.get(), new Text(toEmit));
                    }

                }

            }//end reduce

        } //end Reduce class

Я столкнулся с другой проблемой, но обошел ее с этим решением Hadoop MultipleInputs терпит неудачу с ClassCastException

Ответы [ 2 ]

1 голос
/ 20 апреля 2019

В один и тот же Mapper можно вводить несколько файлов, просто добавив путь ввода нескольких файлов. Затем вы можете использовать mapperContext, чтобы определить, какое разделение файла происходит из какого местоположения файла.

Так в основном,

Шаг 1: работа MR

  • Считать файл 1 + 2

  • In mapper emit <word, [val1, val2]> (val1 равен 1, если файл отделен от file1 и 0 в противном случае; аналогично для val2)

  • в хэш-карте записи редуктора <work, [file1_count, file2_count]>

Шаг 2: объединить осколки (количество слов не может быть таким большим и должно уместиться на одном компьютере) и использовать простое задание Java для создания пользовательского показателя сходства

0 голосов
/ 20 апреля 2019

Вместо глобального вы можете использовать БД или даже записать в файл.

Проверьте соотношение частот к размеру HashMaps и сравните:

HashMap<String, Integer> similarities = new HashMap<String, Integer>();
int matching = 0
Int totalX = getTotal(wordCountX);
int totalY = getTotal(wordCountY);

wordCountX.forEach((k,v)->{ 
     Integer count = wordCountY.get(k);
    if (count.getIntValue() / totalY == v.getIntValue() / totalX)
        similarities.put(k, Integer.valueOf(v.getIntValue() / totalY);
});
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...