Когда я запускаю команду flume-ng agent -f /usr/hdp/current/flume-server/conf/example.conf -c /usr/hdp/current/flume-server/conf -n a1
, я получаю следующие журналы:
Предупреждение: JAVA_HOME не установлен! Информация: в том числе найдены библиотеки Hadoop
через (/ bin / hadoop) для доступа к HDFS Информация: исключая
/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar из classpath
Информация: исключая
/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar из
Информация о classpath: исключая
/usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar из classpath Info:
Включая библиотеки HBASE, найденные через (/ bin / hbase) для доступа к HBASE
Информация: исключая /usr/hdp/2.6.5.0-292/hbase/lib/slf4j-api-1.7.7.jar
из classpath Информация: исключая
/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar из classpath
Информация: исключая
/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar из
Информация о classpath: исключая
/usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar из classpath Info:
Исключая /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar из
Информация о classpath: исключая
/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar из
Информация о classpath: Включение библиотек Hive, найденных с помощью () для доступа к Hive
+ exec / usr / bin / java -Xmx20m -cp '/usr/hdp/current/flume-server/conf:/usr/hdp/2.6.5.0-292/flume/lib/:/usr/hdp/ 2.6.5.0-292 / Hadoop / конф: /usr/hdp/2.6.5.0-292/hadoop/lib/activation-1.1.jar: /usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-i18n- 2.0.0-M15.jar: /usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-kerberos-codec-2.0.0-M15.jar: /usr/hdp/2.6.5.0-292/hadoop/ Библиотека / апи-ASN1-апи-1.0.0 -... 3.4.6.2.6.5.0-292.jar: /usr/hdp/2.6.5.0-292/zookeeper/bin: /usr/hdp/2.6.5.0 -292 / Zookeeper / конф: /usr/hdp/2.6.5.0-292/zookeeper/doc: /usr/hdp/2.6.5.0-292/zookeeper/etc: /usr/hdp/2.6.5.0-292/zookeeper/ Lib: /usr/hdp/2.6.5.0-292/zookeeper/man: /usr/hdp/2.6.5.0-292/zookeeper/usr: /usr/hdp/2.6.5.0-292/zookeeper/zookeeper-3.4.6.2 .6.5.0-292.jar: /usr/hdp/2.6.5.0-292/zookeeper/zookeeper.jar: / conf: / lib / '-Djava.library.path = :: / usr / hdp / 2.6.5.0-292 / Hadoop / Библиотека / родной / Linux-amd64-64: /usr/hdp/2.6.5.0-292/hadoop/lib/native :: / USR / HDP / 2.6.5.0-292 / Hadoop / Библиотека /native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native
org.apache.flume.node.Application -f
/usr/hdp/current/flume-server/conf/example.conf -n a1 SLF4J: класс
путь содержит несколько привязок SLF4J. SLF4J: найдено связывание в
[Баночка: файл! /Usr/hdp/2.6.5.0-292/flume/lib/slf4j-log4j12-1.7.10.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: найдено связывание в
[Баночка: файл! /Usr/hdp/2.6.5.0-292/flume/lib/log4j-slf4j-impl-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: см. http://www.slf4j.org/codes.html#multiple_bindings для
объяснение.
После этого ничего не происходит. Хотя, когда я использую команду netstat и пытаюсь выполнить grep для порта 44444, я могу видеть его СЛУШАТЬ, но я могу telnet, он говорит, что соединение отказано. Я следую документации пользователя flume и только что сделал первый агент flume в документации.
'# example.conf: A single-node Flume configuration
# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
# Describe the sink
a1.sinks.k1.type = logger
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
Я не могу понять, что я делаю неправильно, я использую hortonworks sandbox hdp 2.6.5. Пожалуйста, помогите. Заранее спасибо.