Я ищу способ настроить несколько таблиц и файлов в качестве входных данных для задания hadoop.
Чтобы настроить несколько таблиц в качестве входных данных, мы можем использовать этот API
TableMapReduceUtil.initTableMapperJob(scans, MyMapper.class, Text.class, Text.class, job);
Для добавленияДля ввода файлов на работу мы можем использовать этот API
MultipleInputs.addInputPath(job, path, TextInputFormat.class, myMapper);
Однако их комбинация не работает.Кажется, что первый метод работает исключительно.Я знаю способ добавления 1 hbase таблицы и файлов в качестве входных данных:
conf.set(TableInputFormat.INPUT_TABLE, new String(tableName));
conf.set(TableInputFormat.SCAN, convertScanToString(scan));
MultipleInputs.addInputPath(job, new Path("HT_" + new String(tableName)), TableInputFormat.class, myMapper);
// here we can file inputs as before
Он работает только для 1 ввода таблицы, поскольку имя входной таблицы и сканированиеустановить для конфигурации исключительно.Можем ли мы сделать что-нибудь для поддержки нескольких таблиц и файлов?