Я имею дело с существующей веб-платформой, которая использует SOLR для генерации наборов данных на основе запросов. У нас возникла проблема с публикацией нового контента в режиме реального времени (<1 минута). Существует механизм кэширования, помогающий снизить нагрузку на серверы SOLR, но это кэширование приводит к задержке появления нового контента в наборах данных на основе запросов SOLR. </p>
Я бы хотел иметь возможность аннулировать кэш на основе запроса SOLR, который сгенерировал кэшированный элемент, но я столкнулся с камнем преткновения: с 1000+ запросами SOLR трудно понять, какой (если есть) из них применяются к данному документу. Подходы, которые мы определили до сих пор, включают:
- Создание экземпляра SOLR, вставка одного документа за раз и выполнение запросов для определения попадания.
- Создайте индекс Lucene в памяти и сделайте то же самое.
- Используйте другой метод (ручной анализ запроса SOLR), чтобы получить приблизительную оценку того, какие запросы затронуты.
Ничто из этого на самом деле не идеально, но без какого-либо способа «развернуть» процесс и запустить документ с помощью запросов в стиле CEP, я не уверен, что есть лучший способ.
Кто-нибудь имел дело с подобной ситуацией?