Я использую mongodb changestream, который прослушивает изменения в коллекции согласно определенной логике совпадений c. https://spring.io/blog/2018/09/27/what-s-new-in-spring-data-lovelace-for-mongodb
Хотя вышеперечисленное прекрасно работает, но я не уверен, как мы можем сделать вышеописанную обработку устойчивой и масштабируемой. Я попытался выполнить поиск выше, но не смог найти никакого решения вокруг этого.
Как мы можем запустить многопоточное / процессное прослушивание изменений согласно одному и тому же критерию соответствия, чтобы мы могли обрабатывать изменения параллельно, а также гарантировать изменение для конкретного ключа выбирается тем же потоком / процессом, чтобы предотвратить обработку не по порядку, как раздел Kafka, так что приложение также может быть устойчивым и масштабируемым.
Спасибо, что ответили на мой вопрос