карта hadoop уменьшает работу с входом HDFS и выходом HBASE - PullRequest
10 голосов
/ 28 декабря 2010

Я новичок в hadoop.У меня есть задание MapReduce, которое должно получать входные данные из Hdfs и записывать выходные данные редуктора в Hbase.Я не нашел хорошего примера.

Вот код, ошибка запуска этого примера: Несоответствие типов в карте, ожидаемый ImmutableBytesWritable получен IntWritable.

Класс картографа

public static class AddValueMapper extends Mapper < LongWritable,
 Text, ImmutableBytesWritable, IntWritable > {  

  /* input <key, line number : value, full line>
   *  output <key, log key : value >*/  
public void map(LongWritable key, Text value, 
     Context context)throws IOException, 
     InterruptedException {
  byte[] key;
  int value, pos = 0;
  String line = value.toString();
  String p1 , p2 = null;
  pos = line.indexOf("=");

   //Key part
   p1 = line.substring(0, pos);
   p1 = p1.trim();
   key = Bytes.toBytes(p1);   

   //Value part
   p2 = line.substring(pos +1);
   p2 = p2.trim();
   value = Integer.parseInt(p2);

   context.write(new ImmutableBytesWritable(key),new IntWritable(value));
  }
}

Класс редуктора

public static class AddValuesReducer extends TableReducer<
  ImmutableBytesWritable, IntWritable, ImmutableBytesWritable> {

  public void reduce(ImmutableBytesWritable key, Iterable<IntWritable> values, 
   Context context) throws IOException, InterruptedException {

         long total =0;
         // Loop values
         while(values.iterator().hasNext()){
           total += values.iterator().next().get();
         }
         // Put to HBase
         Put put = new Put(key.get());
         put.add(Bytes.toBytes("data"), Bytes.toBytes("total"),
           Bytes.toBytes(total));
         Bytes.toInt(key.get()), total));
            context.write(key, put);
        }
    }

У меня была похожая работа только с HDFS и работаетштраф.

Отредактировано 18-06-2013 .Проект колледжа успешно завершен два года назад.Для конфигурации задания (часть драйвера) проверьте правильный ответ.

Ответы [ 4 ]

6 голосов
/ 18 июня 2013

Вот код, который решит вашу проблему



Драйвер

HBaseConfiguration conf =  HBaseConfiguration.create();
Job job = new Job(conf,"JOB_NAME");
    job.setJarByClass(yourclass.class);
    job.setMapperClass(yourMapper.class);
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(Intwritable.class);
    FileInputFormat.setInputPaths(job, new Path(inputPath));
    TableMapReduceUtil.initTableReducerJob(TABLE,
            yourReducer.class, job);
    job.setReducerClass(yourReducer.class);
            job.waitForCompletion(true);


Mapper & Reducer

class yourMapper extends Mapper<LongWritable, Text, Text,IntWritable> {
//@overide map()
 }

class yourReducer
        extends
        TableReducer<Text, IntWritable, 
        ImmutableBytesWritable>
{
//@override reduce()
}

1 голос
/ 02 декабря 2013

Лучший и самый быстрый способ получения данных BulkLoad в HBase - это использование утилит HFileOutputFormat и CompliteBulkLoad.

Вы найдете образец кода здесь :

Надеюсь, это будет полезно:)

1 голос
/ 12 января 2011

Не уверен, почему работает версия HDFS: обычно вы должны установить формат ввода для задания, а FileInputFormat - это абстрактный класс. Возможно, вы пропустили несколько строк? такие как

job.setInputFormatClass(TextInputFormat.class);
0 голосов
/ 17 апреля 2013
 public void map(LongWritable key, Text value, 
 Context context)throws IOException, 
 InterruptedException {

измените это на immutableBytesWritable, intwritable.

Я не уверен ... надеюсь, это работает

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...