Вы можете написать в тему Kafka и запустить задание индексирования Kafka для его индексации.
Мы использовали этот механизм для индексации данных, но в этом нет такого ограничения windowPeriod. Требуется даже более старая временная метка. Но если шард уже завершен, это приводит к созданию новых шардов в том же сегменте.
например, если я использую сегмент дневного размера, и я попаду в шарды в этом сегменте-11-11-2019-1100MB сегмент-11-11-2019-2 10MB (для данных, полученных 12 ноября с временем события 11 ноября).
При сжатии эти два фрагмента будут объединены с включенным автоматическим уплотнением.
https://druid.apache.org/docs/latest/development/extensions-core/kafka-ingestion.html
https://druid.apache.org/docs/latest/tutorials/tutorial-compaction.html
Или просто вы можете накапливать результаты в HDFS, а затем использовать пакетный прием Hadoop с помощью заданий cron. Автоматическое уплотнение хорошо работает и для этой опции.