Я пытаюсь создать конвейер из kafka и записать его в s3, используя Apache Camel, но проблема, с которой я сталкиваюсь, заключается в том, что я на самом деле не знаю размер сообщений для установки в заголовке (так как каждое сообщениеразного размера). Есть ли способ пакетной вставки сообщений в s3, например, ожидание 10 сообщений для верблюда из kafka и вставка 10 за раз в s3 ведро (как пакетный процесс). До сих пор я дошел до этого места.
from("kafka:{{kafka-s3.configure.Producer}}?brokers={{kafka-s3.configure.brokers}}&groupId={{kafka-s3.configure.groupId}}")
.removeHeaders(".*")
.process(new Processor() {
@Override
public void process(Exchange exchange) throws Exception {
//some logic
}
})
.to("aws-s3://{{awsS3BucketName}}"
+ "?deleteAfterWrite=false®ion=eu-west-1"
+ "&accessKey={{awsAccessKey}}"
+ "&secretKey=RAW({{awsAccessKeySecret}})")
.log("done.");
До сих пор я был в состоянии создать это, я не могу пакетировать сообщения обработки в верблюде. что мне не хватает?