Я использую spark для импорта таблицы оракулов в Hbase.Я использовал опцию массового импорта для генерации hfiles в промежуточной директории hdfs.Однажды я запустил LoadIncrementalHFiles для загрузки данных в таблицу hbase.
hBaseContext.bulkLoad(rdds, TableName.valueOf("pink"), new BulkLoadFunction1(), "/solidk", new HashMap<byte[], FamilyHFileWriteOptions>(), false, HConstants.DEFAULT_MAX_FILE_SIZE);
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles -Dcreate.table = yes / solidk pink
где / solidk - мой промежуточный каталог, а pink - имя таблицы.Я вижу, как создается таблица и hfiles перемещаются в каталог hbase, но сканирование возвращает 0 найденных строк.У кого-нибудь есть идеи?