Мы пытаемся прочитать таблицу HBASE, используя Spark.Я хочу получить отфильтрованные данные, например пример строк, которые начинаются с ключа строки 'ABC' и т. Д. Вместо полных данных из таблицы HBASE.Есть ли способ добиться этого?
В настоящее время мое задание на спарк читает всю таблицу в df, PFB, фрагмент кода.Но я не хочу получать все строки.Есть ли способ, которым мы можем отправить SQL-запрос вниз к исходной таблице Hbase, чтобы он возвращал только те записи, которые удовлетворяют условию запроса.(Например: выберите * из hbase_table, где rowkey> 123);
DataFrame df = optionsMap.put("hbase.table", this.props.getProperty ("table_name"));
optionsMap.put("hbase.columns.mapping",getColumnMapping());
optionsMap.put("hbase.push.down.column.filter", "false");
return sqlc.read().options(optionsMap).format ("org.apache.hadoop.hbase.spark").load();