Я работаю в Docker для Windows, и вот мои настройки NiFi:
Подробная информация о процессоре PublishKafka:
Подробная информация о процессоре ConsumeKafka:
Вот мой файл docker-compose (примечание: 192.168.1.50 - мой статический IP-адрес внутреннего хоста):
version: '3'
services:
Jenkins:
container_name: Jenkins
restart: on-failure
depends_on:
- NiFi
image: jenkins:latest
ports:
- "32779:50000"
- "32780:8080"
NiFi:
container_name: NiFi
image: xemuliam/nifi:latest
restart: on-failure
depends_on:
- kafka
ports:
- "32784:8089"
- "32783:8080"
- "32782:8081"
- "32781:8443"
labels:
com.foo: myLabel
zookeeper:
container_name: Zookeeper
image: wurstmeister/zookeeper
restart: on-failure
#network_mode: host
ports:
- "2181:2181"
kafka:
#container_name: Kafka
image: wurstmeister/kafka
depends_on:
- zookeeper
#restart: on-failure
#network_mode: host
ports:
- "9092"
environment:
#KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.168.1.50:9092
#KAFKA_AUTO_CREATE_TOPICS_ENABLE: "true"
KAFKA_CREATE_TOPICS: "MainIngestionTopic:1:1"
KAFKA_ZOOKEEPER_CONNECT: 192.168.1.50:2181
KAFKA_ADVERTISED_LISTENERS: INSIDE://:9092,OUTSIDE://192.168.1.50:9094
KAFKA_LISTENERS: INSIDE://:9092,OUTSIDE://:9094
KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: INSIDE:PLAINTEXT,OUTSIDE:PLAINTEXT
KAFKA_INTER_BROKER_LISTENER_NAME: INSIDE
volumes:
- ./var/run/docker.sock:/var/run/docker.sock
Когда я подключаю журнал контейнера Kafka, я вижу, что моя тема была успешно создана из docker-compose.
Сообщения успешно доставляются в процессор PublishKafkaв нифи, но потом не публикуют.Процессор ConsumeKafka, который подписан на ту же тему, никогда не получает сообщение.
Журнал контейнера NiFi показывает следующее:
2018-05-28 19:46:18,792 ERROR [Timer-Driven Process Thread-1] o.a.n.p.kafka.pubsub.PublishKafka PublishKafka[id=b2503f49-acc9-38f5-86f9-5029e2768b68] Failed to send all message for StandardFlowFileRecord[uuid=b3f6f818-34d3-42a9-9d6e-636cf17eb138,claim=StandardContentClaim [resourceClaim=StandardResourceClaim[id=1527533792820-1, container=default, section=1], offset=5, length=5],offset=0,name=8151630985100,size=5] to Kafka; routing to failure due to org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 5000 ms.: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 5000 ms.
org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 5000 ms.
2018-05-28 19:46:18,792 INFO [Timer-Driven Process Thread-1] o.a.kafka.clients.producer.KafkaProducer Closing the Kafka producer with timeoutMillis = 5000 ms.
Я попытался опубликовать тему в самом контейнере Kafka, но также не удалось:
Я прочесал документацию и прочитал много тем, пытаясь решить эту проблему, но это все еще проблема.Любая помощь будет принята с благодарностью!