Причина в том, что куча узла довольно заполнена и перехватывается автоматическим выключателем, что приятно, поскольку она предотвращает попадание узлов в OOM, устаревание и кр sh ...
Elasticsearch 6.2.0 представил автоматический выключатель и улучшил его в 7.0.0.
Один из узлов (64OKIQjOQ6WaVWNQgW-lTQ)
был запрошен другим узлом для выполнения поиска или (массового) индексного действия на его шардах, но произошел сбой из-за нехватки памяти. Это именно тот случай, когда в соответствии с этим сообщением об ошибке:
Data too large, data for [] would be [990152526/944.2mb], which is larger than the limit of [986061209/940.3mb], real usage: [990145976/944.2mb], new bytes reserved: [6550/6.3kb]
Также обратите внимание на имя участвующих Классов и Методы в Stackrace:
org.elasticsearch.common.breaker. ChildMemoryCircuitBreaker . addEstimateBytesAndMaybeBreak (ChildMemoryCircuitBreaker. java: 128)
Если вы не можете увеличить кучу или уменьшить объем данных, содержащихся в узлах, вам необходимо увеличить масштаб кластер.
Вот некоторые справочные сведения:
https://www.elastic.co/guide/en/elasticsearch/reference/current/circuit-breaker.html
https://www.elastic.co/blog/improving-node-resiliency-with-the-real-memory-circuit-breaker
Если вы Нужно быстрое решение, попробуйте увеличить пределы автоматического выключателя, используя API, описанный в документации. Но имейте в виду, что это не решает проблему вообще.