У меня есть данные, которые слишком велики для одного сообщения.Рассмотрим avro:
record Likes {...}
record Comments {...}
record Post {
Likes likes;
Comments comments;
string body;
}
Предположим, лайки и комментарии - это большие коллекции, и если передать их вместе с постом, он превысит максимальный размер сообщения, который я считаю неправильным, увеличивая до 10-20 МБ.
Я хочу разделить одно сообщение на три: тело сообщения, комментарии и лайки.Тем не менее, я хочу, чтобы вставка базы данных была атомарной - поэтому я хочу сгруппировать и объединить эти сообщения в потребительской памяти.
Могу ли я сделать это с kafka-streams?Могу ли я иметь поток без темы вывода (поскольку выходное сообщение снова будет превышать максимальный размер).
Если у вас есть идеи, предполагающие одинаковые входные данные (одно большое сообщение превышает настроенный максимальный размер сообщения), пожалуйста, поделитесь