У нас есть много записей для индексирования в Elasticsearch.Для POC мы используем локальный кластер Elasticsearch, например, localhost:9200
.
. Мы включили поддержку сжатия кластера в config/elasticsearch.yml
, но добавили http.compression: true
Когда размер записи увеличивается, Elasticsearch выдает ошибки
"statusCode":413,"response":"{\"Message\":\"Request size exceeded 10485760 bytes\"}
Есть ли способ сжать данные, которые мы отправляем в запросе _bulk
?Поиск решения только в node.js
.
Elasticsearch.js
на данный момент не поддерживает его.Я зарегистрировал проблему с ними.