Я столкнулся с проблемой, которой раньше не было.
Я прикрепляю журналы своей службы и elasticSearch (2.4.4):
2020-05-30 06:29:44.576 INFO 24787 --- [generic][T#287]] org.elasticsearch.client.transport : [Shatter] failed to get node info for {#transport#-1}{172.17.0.1}{172.17.0.1:9300}, disc
onnecting...
org.elasticsearch.transport.ReceiveTimeoutTransportException: [][172.17.0.1:9300][cluster:monitor/nodes/liveness] request_id [10242] timed out after [5000ms]
at org.elasticsearch.transport.TransportService$TimeoutHandler.run(TransportService.java:698) ~[elasticsearch-2.4.4.jar!/:2.4.4]
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) [na:1.8.0_242]
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) [na:1.8.0_242]
at java.lang.Thread.run(Thread.java:748) [na:1.8.0_242]
Журналы ElasticSearch:
[2020-05-30 06:29:46,784][INFO ][monitor.jvm ] [Tempo] [gc][old][230125][41498] duration [8.2s], collections [1]/[9s], total [8.2s]/[10.7h], memory [473.2mb]->[426.1mb]/[494.9mb], all_pools {[young] [131.8mb]->[84.7mb]/[136.5mb]}{[survivor] [0b]->[0b]/[17mb]}{[old] [341.3mb]->[341.3mb]/[341.3mb]}
[2020-05-30 06:33:47,782][INFO ][monitor.jvm ] [Tempo] [gc][old][230340][41540] duration [7s], collections [1]/[7.8s], total [7s]/[10.7h], memory [493.3mb]->[425mb]/[494.9mb], all_pools {[young] [136.5mb]->[83.6mb]/[136.5mb]}{[survivor] [15.4mb]->[0b]/[17mb]}{[old] [341.3mb]->[341.3mb]/[341.3mb]}
[2020-05-30 06:37:59,384][INFO ][monitor.jvm ] [Tempo] [gc][old][230569][41582] duration [6.9s], collections [1]/[7.2s], total [6.9s]/[10.7h], memory [494.8mb]->[424.7mb]/[494.9mb], all_pools {[young] [136.5mb]->[83.4mb]/[136.5mb]}{[survivor] [16.9mb]->[0b]/[17mb]}{[old] [341.3mb]->[341.3mb]/[341.3mb]}
Я не сталкиваюсь с проблемой в моем Среда разработки, однако, когда я развертываю на EC2, я получаю это. Добавление дальнейшего, когда я перезапускаю elasti c. Он работает абсолютно нормально, без проблем, но через 10-15 минут или меньше, в зависимости от количества поисковых запросов или запросов вставки, появляется сообщение об ошибке.
Кроме того, мое хранилище на инстансе на 74% занято 94 ГБ из 120 ГБ. может это из-за памяти? Я почти уверен, что мой код res-client в порядке, так как он уже давно работает в продакшене. Может это проблема с портом? Я использую docker контейнер для эластичности c.
Любая помощь будет принята с благодарностью.
_cat / fielddata? V
_cat / узлов? v