Я использую hadoop 2.7.2, hbase 1.4.9, spark 2.2.0, scala 2.11.8 и java 1.8 на кластере hadoop , который состоит из одного мастераи два ведомых.
, когда я запускаю spark-shel l после запуска кластера, все работает нормально. Я пытаюсь подключиться к hbase, используя scala , следуя этому уроку: [https://www.youtube.com/watch?v=gGwB0kCcdu0][1].
Но когда я пытаюсь, как он, запускает spark-shell, добавляя теjars, как аргумент У меня есть эта ошибка:
spark-shell --jars "hbase-annotations-1.4.9.jar, hbase-common-1.4.9.jar, hbase-protocol-1.4. 9.jar, htrace-ядро-3,1,0-incubating.jar,-3.4.6.jar зоопарка, HBase-клиент-1.4.9.jar, HBase-hadoop2-Compat-1.4.9.jar, метрики-json-3.1.2.jar, hbase-server-1.4.9.jar "
<console>:14: error: not found: value spark
import spark.implicits._
^
<console>:14: error: not found: value spark
import spark.sql
^
, и после этого даже я выхожу из системы и запускаю spark-shell в другой раз, когда у меня возникает такая же проблема. Может кто-нибудь сказать мне, пожалуйста, в чем причина и как это исправить.