Это продолжение моего предыдущего вопроса Влияет ли огромное количество удаленных * c на производительность запроса ES * , связанных с удаленными документами в моем индексе ES.
Как указано в ответ, я использовал optimize API , так как я использую версию ES 1.X, где API принудительного слияния недоступен, но после прочтения о ссылке оптимизации github API (предоставленной ранее, поскольку не удалось найти его на сайте ES) Сэй Бэннон (Say Bannon), основатель elasti c, похоже, делает то же самое.
Я получил сообщение об успешном завершении индекса после запуска API оптимизации, но я не вижу общее количество удаленных документов уменьшается, и я обеспокоен тем, что когда я проверял сегменты моего индекса с помощью сегментов API , я вижу, что для каждого шарда имеется более 25 сегментов, и каждый шард содержит 250-1 ГБ данные в памяти и почти 500 тыс. документов, в то время как я вижу, что есть несколько осколков, где мало удаленных документов.
Итак, мой вопрос:
- Мой индекс имеет m ультипульные осколки по нескольким узлам данных, и когда я запустил оптимизацию API, используя только URL-адрес одного узла, он объединяет только сегменты на этом узле? в то время как я использую плагин KOPF и имею собственные имена для своих узлов данных, как я могу связать это имя узла crypti c с моим читаемым человеком именем узла, чтобы определить, является ли утверждение 1 правильным или нет?
- Как Документация по API оптимизации недоступна. Возможно ли объединить сегменты всех сегментов всех узлов за один раз? и нужно ли делать индекс доступным только для чтения перед его применением?