Я настраиваю Apache Atlas с существующим ансамблем Zookeeper, но использую локальный HBase / Solr.Однако HBase все еще пытается запустить свой собственный ансамбль ZK, а не использовать существующий.
Я пытаюсь запустить Apache Atlas с отдельным ансамблем ZooKeeper.Однако HBase не распознает существующий ансамбль ZK и все еще пытается запустить свой собственный ансамбль.
Я уже установил настройки ЛОКАЛЬНОЙ среды:
-bash-4.2$ env | grep LOCAL
MANAGE_LOCAL_HBASE=true
MANAGE_LOCAL_SOLR=true
и
HBASE_MANAGES_ZK=false
И сконфигурировал HBase следующим образом в hbase-site.xml :
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>zookeeper.znode.parent</name>
<value>/hbase</value>
</property>
</configuration>
Я вижу, что ZK запущен и работает, проверив zkCli.sh, и HBase Nodes не существует:
[zk: localhost:2181(CONNECTED) 0] ls /
[cluster, configs, brokers, zookeeper, overseer, security.json, admin, isr_change_notification, autoscaling.json, controller_epoch, aliases.json, live_nodes, collections, overseer_elect, clusterstate.json, consumers, autoscaling, config]
[zk: localhost:2181(CONNECTED) 1]
Тем не менее, я все еще получаю следующую ошибку:
2019-06-06 11:06:59,045 WARN - [main:] ~ Retrieve cluster id failed (ConnectionImplementation:551)
java.util.concurrent.ExecutionException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid
at java.util.concurrent.CompletableFuture.reportGet(CompletableFuture.java:357)
HDFS также работает и работает:
-bash-4.2$ jps
3537 SecondaryNameNode
7722 Jps
6716 ZooKeeperMain
3342 NameNode
3039 QuorumPeerMain
Любые идеи кто-нибудь?
Ура!