Почему этот статус индекса красный: opendistro-ism-config - PullRequest
0 голосов
/ 03 августа 2020

Не думаю, что я когда-либо касался этого индекса, но из-за этого весь мой кластер становится красным. Не знаю, что это такое и как это исправить, попытался добавить еще один узел, но не сработало. В представлении управления индексами я вижу, что это единственный индекс красного цвета. Индекс проблемы - opendistro-ism-config. Я попытался изменить количество реплик для индекса, добавив узел, et c, не помогло.

Edit

По просьбе @Val I добавили следующий запрос. Мой индекс остается в красном состоянии, что вызывает у меня спам-тревогу на AWS, где я развернул свой кластер. У меня есть несколько индексов, поэтому я удалил их из вывода в shard_sizes и оставил только тот, о котором идет речь. У меня есть 4 x t2.small 35 ГиБ SSD, много свободного места в кластере. Это не мой prod-кластер, поэтому он неплох, но очень раздражает.

https://{{ES_DOMAIN}}/_cluster/allocation/explain?include_disk_info&include_yes_decisions
{
    "index": ".opendistro-ism-config",
    "shard": 1,
    "primary": true,
    "current_state": "unassigned",
    "unassigned_info": {
        "reason": "ALLOCATION_FAILED",
        "at": "2020-08-01T09:18:40.288Z",
        "failed_allocation_attempts": 5,
        "details": "failed shard on node [ex3PL3THRHmAxkvMjOwrQQ]: failed to create shard, failure IOException[failed to obtain in-memory shard lock]; nested: ShardLockObtainFailedException[[.opendistro-ism-config][1]: obtaining shard lock timed out after 5000ms, previous lock details: [shard creation] trying to lock for [shard creation]]; ",
        "last_allocation_status": "no_valid_shard_copy"
    },
    "cluster_info": {
        "nodes": {
            "KnCBTiL1TZCGz1DNYfm9_A": {
                "node_name": "ef9116cc46563e2c73d12eb7a8887f4c",
                "least_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2143232000,
                    "free_bytes": 34579505152,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                },
                "most_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2143232000,
                    "free_bytes": 34579505152,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                }
            },
            "90rKZw_SSOSlOGWv_WyQQQ": {
                "node_name": "45cfd2c275112972c5e68e7e00295d45",
                "least_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2144980992,
                    "free_bytes": 34577756160,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                },
                "most_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2144980992,
                    "free_bytes": 34577756160,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                }
            },
            "2F_QTYueTs69Q7KhCped9w": {
                "node_name": "a8314d5f13c0043f8454997d973e8c03",
                "least_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 1957380096,
                    "free_bytes": 34765357056,
                    "free_disk_percent": 94.7,
                    "used_disk_percent": 5.3
                },
                "most_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 1957380096,
                    "free_bytes": 34765357056,
                    "free_disk_percent": 94.7,
                    "used_disk_percent": 5.3
                }
            },
            "8-oMtA69QvO3bKTAAUPeBw": {
                "node_name": "9c042bb3814270c16b4fba03ff85208d",
                "least_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2140692480,
                    "free_bytes": 34582044672,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                },
                "most_available": {
                    "total_bytes": 36722737152,
                    "used_bytes": 2140692480,
                    "free_bytes": 34582044672,
                    "free_disk_percent": 94.2,
                    "used_disk_percent": 5.8
                }
            }
        },
        "shard_sizes": {
            "[.opendistro-ism-config][2][r]_bytes": 56497,
            "[.opendistro-ism-config][0][p]_bytes": 53651,
            "[.opendistro-ism-config][0][r]_bytes": 53651,
            "[.opendistro-ism-config][4][p]_bytes": 33157,
            "[.opendistro-ism-config][2][p]_bytes": 56497
            }
        },
        "can_allocate": "no_valid_shard_copy",
        "allocate_explanation": "cannot allocate because a previous copy of the primary shard existed but can no longer be found on the nodes in the cluster",
        "node_allocation_decisions": [
            {
                "node_id": "2F_QTYueTs69Q7KhCped9w",
                "node_name": "a8314d5f13c0043f8454997d973e8c03",
                "node_decision": "no",
                "store": {
                    "found": false
                }
            },
            {
                "node_id": "8-oMtA69QvO3bKTAAUPeBw",
                "node_name": "9c042bb3814270c16b4fba03ff85208d",
                "node_decision": "no",
                "store": {
                    "found": false
                }
            },
            {
                "node_id": "90rKZw_SSOSlOGWv_WyQQQ",
                "node_name": "45cfd2c275112972c5e68e7e00295d45",
                "node_decision": "no",
                "store": {
                    "found": false
                }
            },
            {
                "node_id": "KnCBTiL1TZCGz1DNYfm9_A",
                "node_name": "ef9116cc46563e2c73d12eb7a8887f4c",
                "node_decision": "no",
                "store": {
                    "found": false
                }
            }
        ]
    }

Ответы [ 2 ]

0 голосов
/ 03 августа 2020

Чтобы заставить кластер снова работать, необходимо вручную перенаправить сегмент.

Причина проблемы : Чаще всего это случается, если на момент отключения от мастера был первичный узел без выделенных реплик. Таким образом, при повторном присоединении к кластеру локально выделенная копия осколка на узле не может освободить ранее использованные ресурсы в то время, когда мастер уже сделал 5 попыток безуспешно снова выделить осколок узлу.

После 5 неудачных попыток распределения мастер сдается и требует ручного запуска, чтобы дать ему другое распределение.

Решение : Выполните команду ниже, чтобы решить то же самое:

curl -XPOST 'localhost:9200/_cluster/reroute?retry_failed
0 голосов
/ 03 августа 2020

КРАСНЫЙ статус кластера означает, что один или несколько первичных индексов отсутствуют и у него может не быть реплик на этот первичный шард, или es не может продвинуть реплику на первичный шард.

Пожалуйста, следуйте официальному сообщению ES blog для устранения проблемы.

Добавление другого узла не поможет, если у вас нет осколка реплики, который также отсутствует для потерянного основного осколка.

...