Пока я пытаюсь запустить Apache Atlas. Я сталкиваюсь с некоторой ошибкой hbase (я использую встроенные hbase и solr) - PullRequest
0 голосов
/ 25 октября 2019

Мой сервер Apache Atlas запущен, но я обнаружил ошибки в своем файле application.log.

Пользовательский интерфейс для Apache Atlas также не работает.

  1. Я следил за каждым икаждый шаг с веб-сайта Apache. Все прошло хорошо.
  2. Я дал все разрешения в atlas-env.sh и файлах свойств приложения.
  3. Может кто-нибудь помочь мне разобраться?
Running setup per configuration atlas.server.run.setup.on.start. (SetupSteps$SetupRequired:186)
2019-10-25 12:25:49,366 WARN  - [main:] ~ Running setup per configuration atlas.server.run.setup.on.start. (SetupSteps$SetupRequired:186)
2019-10-25 12:25:50,104 WARN  - [main:] ~ Retrieve cluster id failed (ConnectionImplementation:551)
java.util.concurrent.ExecutionException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid
    at java.util.concurrent.CompletableFuture.reportGet(CompletableFuture.java:357)
    at java.util.concurrent.CompletableFuture.get(CompletableFuture.java:1895)
    at org.apache.hadoop.hbase.client.ConnectionImplementation.retrieveClusterId(ConnectionImplementation.java:549)
    at org.apache.hadoop.hbase.client.ConnectionImplementation.<init>(ConnectionImplementation.java:287)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
    at org.apache.hadoop.hbase.client.ConnectionFactory.createConnection(ConnectionFactory.java:219)
    at org.apache.hadoop.hbase.client.ConnectionFactory.createConnection(ConnectionFactory.java:114)
    at org.janusgraph.diskstorage.hbase2.HBaseCompat2_0.createConnection(HBaseCompat2_0.java:46)
    at org.janusgraph.diskstorage.hbase2.HBaseStoreManager.<init>(HBaseStoreManager.java:314)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
    at org.janusgraph.util.system.ConfigurationUtil.instantiate(ConfigurationUtil.java:58)
    at org.janusgraph.diskstorage.Backend.getImplementationClass(Backend.java:476)
    at org.janusgraph.diskstorage.Backend.getStorageManager(Backend.java:408)
    at org.janusgraph.graphdb.configuration.GraphDatabaseC

Ответы [ 2 ]

1 голос
/ 28 октября 2019

Когда HBase запускается, мастер-узел HBase создает узел "/ hbase / hbaseid" в zookeeper.

1. Проверьте процессы.

проверьте, запущены ли HBase и zookeeper с помощью 'jps -m'. Если вы настроили HBase для внутреннего управления zookeeper, вы не можете увидеть процесс zookeeper с помощью команды jps, тогда вы можете проверить его порт с помощью 'netstat -nt |grep ZK_PORT 'и обычно он использует 2181.

netstat -nt | grep 2181

2. Проверьте узел zookeeper

Если вы запускаете кластер zookeeper независимо, вы можете проверить узел "/ hbase / hbaseid" с помощью CLI zookeeper следующим образом.

ZOOKEEPER/bin/zkCli.sh
[zk: ...] ls /
[zk: ...] get /hbase/hbaseid
0 голосов
/ 05 ноября 2019

Надеюсь, это может вам помочь.

установить атлас

вы можете скачать исходный код атласа v2.0.0 или ветку master из здесь и собрать его.

$ export MAVEN_OPTS="-Xms2g -Xmx2g"
$ mvn clean install
$ mvn clean package -Pdist

Если вы строите основную ветку, вы можете найти пакет сервера в /SOURCE_CODE/distro/target/apache-atlas-3.0.0-SNAPSHOT-server/apache-atlas-3.0.0-SNAPSHOT.

Вы должны настроить сервер до его запуска. Вот минимальные настройки. Найдите файл atlas-application.properties в каталоге conf.

atlas.graph.storage.hostname=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for hbase
atlas.graph.index.search.backend=[solr or elasticsearch] => choose one you want to use.
atlas.graph.index.hostname=xxx.xxx.xxx.xxx => solr or elasticsearch server's addr
atlas.kafka.zookeeper.connect=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for Kafka
atlas.kafka.bootstrap.servers=xxx.xxx.xxx.xxx:xxxx => kafka addr
atlas.audit.hbase.zookeeper.quorum=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for hbase

Чтобы запустить сервер,

$ bin/atlas_start.py

установите zookeeper

Собственно, чтобы установить zookeeper,тут почти нечего делать. просто выполните шаги В этом случае вам следует изменить свою hbase env. в hbase-env.sh

export HBASE_MANAGES_ZK=false

Если вы видите некоторые предупреждения из файла журнала hbase, такие как «Не удалось запустить ZK на запрошенном порту 2181». затем проверьте файл hbase-site.xml и установите для hbase.cluster.distributed значение true.

...