Я пытаюсь обновить документы в Elasticsearch, используя сообщения Kafka (как StreamSource). Запись в Elasticsearch в пакетном режиме с использованием окон и соединителя Elasticsearch в качестве приемника - это нормально, однако нам необходимо обновить существующие данные в документах и прочитать их массово (не для каждого кортежа, а, например, для всего окна после byKey()
разделение, которое мы хотим объединить)
Сейчас мы используем Storm Trident, который выполняет массовое чтение до persistentAggregate
и записывает обновленные агрегаты обратно, сводя к минимуму взаимодействие с бэкендом. Я просто не могу найти что-то похожее во Флинке - есть подсказки?