У меня есть БД Oracle.Logstash извлекает данные из Oracle и помещает их в ElasticSearch.
Но когда Logstash выполняет плановый экспорт каждые 5 минут, ElasticSearch, заполненный копиями, приводит к тому, что старые данные все еще существуют.Это очевидная ситуация.Состояние Oracle практически не изменилось за эти 5 минут.Допустим - добавлено 2-3 строки, а 4-5 удалено.
Как мы можем заменить старые данные новыми без копий?
Например:
- Удалить весь старый индекс;
- Создайте новый индекс с тем же именем и настройте его (конфигурация и отображение nGram);
- Добавьте все новые данные;
- Подождите 5 минут и повторите.