Я изучаю Hadoop (0.20.205), и я немного растерялся. Какой способ рекомендуется:
A) Реализуйте интерфейсы Mapper
и Reducer
из org.apache.hadoop.mapred
и настройте задание, используя JobConf
, как в примере PiEstimator
.
B) Расширьте классы Mapper
и Reducer
с org.apache.hadoop.mapreduce
и настройте задание, используя Job
, как в примере WordCount
.
Какой из них с большей вероятностью устареет в будущем?
Hbase (0.90.4), похоже, предпочитает второй способ, поскольку TableOutputFormat
в o.a.h.h.mapred
устарело, а TableOutFormat
в o.a.h.h.mapreduce
- нет. С другой стороны, такие полезные классы, как IdentityMapper
или IdentityReducer
, существуют только в o.a.h.mapred
. В целом, я склоняюсь к версии B.
Какой путь вы бы выбрали и почему? Заранее спасибо.