Я новичок в Kafka, использую Kafka-узел.Я использую Kafka для обработки данных в реальном времени.Система имеет одного производителя и несколько потребителей.Я могу получать данные, если один из потребителей работает одновременно, но если я запускаю двух потребителей, только один из них получит данные, а другой не получит никаких данных.
Код дляПроизводитель kafka:
const config = require('../config');
const logger = require('./logger');
const kafka = require('kafka-node'),
HighLevelProducer = kafka.HighLevelProducer,
client = new kafka.Client(`${config.kafka.host}:${config.kafka.port}`),
producer = new HighLevelProducer(client);
producer.on('ready', () => {
logger.info("Events producer to kafka is ready...");
});
producer.on('error', (err) => {
logger.error("Error while starting kafka producer:" + err.message);
});
const queueEvent = (event, callback) => {
const payloads = [
{ topic: config.kafka.queueName, messages: JSON.stringify(event, null,
2) },
];
producer.send(payloads, (err, data) => {
if (err) {
logger.error(`Error while producing data: ${err.message}`);
callback(err);
} else {
callback(null, data);
}
});
};
module.exports = {
queueEvent
};
Конфигурация для всех потребителей такая же, как показано ниже:
const kafka = require('kafka-node');
const logger = require('../common/logger');
const config = require('../common/config');
const eventDao = require('../models/event');
const _ = require('lodash');
const { getDeviceHierarchy } = require('../common/apiUtils');
const options = { autoCommit: true, fetchMaxWaitMs: 1000, fetchMaxBytes:
1024 * 1024 };
const HighLevelConsumer = kafka.HighLevelConsumer,
client = new kafka.Client(`${config.kafka.host}:${config.kafka.port}`),
consumer = new HighLevelConsumer(
client,
[
{ topic: config.kafka.queueName, partition: 0 }
],
options
);
Я использую образ док-станции Kafka, и ниже приведены настройки, которые я сделал
запуск докера -d -p 2181: 2181 -p 3030: 3030 -p 8081-8083: 8081-8083 -p 9581-9585: 9581-9585 -p 9092: 9092 -e ADV_HOST =localhost -e DISABLE = azure-documentdb, blockchain, bloomberg, cassandra, coap, druid, эластичный ,astic5, ftp, hazelcast, hbase, effxdb, jms, kudu, mongodb, mqtt, redis, переосмыслить, voltdb, yahoo, hdfs, jdbc,asticsearch, s3, twitter -e CONNECT_HEAP = 6G -e RUNNING_SAMPLEDATA = 0 -e RUNTESTS = 0 landoop / fast-data-dev: последние **