Я пытаюсь запросить таблицу Hbase с помощью spark, но я получаю эту ошибку:
14: 08: 35.134 [main] DEBUG org.apache.hadoop.util.Shell - Не удалосьобнаружение допустимого домашнего каталога hadoop
мой код:
object HbaseQuery {
def main(args: Array[String]) {
val sparkConf = new SparkConf().setAppName("HBaseRead").setMaster("local[2]")
val sc = new SparkContext(sparkConf)
val conf = HBaseConfiguration.create()
val tableName = "emp"
System.setProperty("hadoop.home.dir", "/usr/local/hadoop-2.7.6")
conf.set("hbase.zookeeper.quorum", "localhost")
conf.set("hbase.master", "localhost:60000")
conf.set(TableInputFormat.INPUT_TABLE, tableName)
val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat], classOf[ImmutableBytesWritable], classOf[Result])
println("Number of Records found : " + hBaseRDD.count())
hBaseRDD.foreach(println)
}
}
я тоже пытался создать spark-env.sh, добавив export HADOOP_HOME = "мой путь", но все еще та же проблема Спасибо заранее