Частичный поиск слов не работает вasticsearch (asticsearch-py), используя mon go -connector - PullRequest
0 голосов
/ 16 января 2020

В настоящее время я проиндексировал мою коллекцию mongoDB в Elasticsearch, работающую в контейнере docker. Я могу запросить документ по его точному имени, но Elasticsearch не может сопоставить запрос, если он является только частью имени. Вот пример:

>>> es = Elasticsearch('0.0.0.0:9200')
>>> es.indices.get_alias('*')
{'mongodb_meta': {'aliases': {}}, 'sigstore': {'aliases': {}}, 'my-index': {'aliases': {}}}
>>> x = es.search(index='sigstore', body={'query': {'match': {'name': 'KEGG_GLYCOLYSIS_GLUCONEOGENESIS'}}})
>>> x
{'took': 198, 'timed_out': False, '_shards': {'total': 1, 'successful': 1, 'skipped': 0, 'failed': 0}, 'hits': {'total': {'value': 1, 'relation': 'eq'}, 'max_score': 8.062855, 'hits': [{'_index': 'sigstore', '_type': 'sigs', '_id': '5d66c23228144432307c2c49', '_score': 8.062855, '_source': {'id': 1, 'name': 'KEGG_GLYCOLYSIS_GLUCONEOGENESIS', 'description': 'http://www.broadinstitute.org/gsea/msigdb/cards/KEGG_GLYCOLYSIS_GLUCONEOGENESIS', 'members': ['ACSS2', 'GCK', 'PGK2', 'PGK1', 'PDHB', 'PDHA1', 'PDHA2', 'PGM2', 'TPI1', 'ACSS1', 'FBP1', 'ADH1B', 'HK2', 'ADH1C', 'HK1', 'HK3', 'ADH4', 'PGAM2', 'ADH5', 'PGAM1', 'ADH1A', 'ALDOC', 'ALDH7A1', 'LDHAL6B', 'PKLR', 'LDHAL6A', 'ENO1', 'PKM2', 'PFKP', 'BPGM', 'PCK2', 'PCK1', 'ALDH1B1', 'ALDH2', 'ALDH3A1', 'AKR1A1', 'FBP2', 'PFKM', 'PFKL', 'LDHC', 'GAPDH', 'ENO3', 'ENO2', 'PGAM4', 'ADH7', 'ADH6', 'LDHB', 'ALDH1A3', 'ALDH3B1', 'ALDH3B2', 'ALDH9A1', 'ALDH3A2', 'GALM', 'ALDOA', 'DLD', 'DLAT', 'ALDOB', 'G6PC2', 'LDHA', 'G6PC', 'PGM1', 'GPI'], 'user': 'naji.taleb@medimmune.com', 'type': 'public', 'level1': 'test', 'level2': 'test2', 'time': '08-28-2019 14:03:29 EDT-0400', 'source': 'File', 'mapped': [''], 'notmapped': [''], 'organism': 'human'}}]}}

Когда используется полное имя документа ,asticsearch может успешно запросить его. Но это то, что происходит, когда я пытаюсь найти часть имени или использовать подстановочный знак:

>>> x = es.search(index='sigstore', body={'query': {'match': {'name': 'KEGG'}}})
>>> x
{'took': 17, 'timed_out': False, '_shards': {'total': 1, 'successful': 1, 'skipped': 0, 'failed': 0}, 'hits': {'total': {'value': 0, 'relation': 'eq'}, 'max_score': None, 'hits': []}}



>>> x = es.search(index='sigstore', body={'query': {'match': {'name': 'KEGG*'}}})
>>> x
{'took': 3, 'timed_out': False, '_shards': {'total': 1, 'successful': 1, 'skipped': 0, 'failed': 0}, 'hits': {'total': {'value': 0, 'relation': 'eq'}, 'max_score': None, 'hits': []}}

В дополнение к настройкам индекса по умолчанию я также попытался создать индекс, который позволяет использовать токенайзер nGram для Позвольте мне сделать частичный поиск, но это также не сработало. Вот настройки, которые я использовал для этого индекса:

{
  "sigstore": {
    "aliases": {},
    "mappings": {},
    "settings": {
      "index": {
        "max_ngram_diff": "99",
        "number_of_shards": "1",
        "provided_name": "sigstore",
        "creation_date": "1579200699718",
        "analysis": {
          "filter": {
            "substring": {
              "type": "nGram",
              "min_gram": "1",
              "max_gram": "20"
            }
          },
          "analyzer": {
            "str_index_analyzer": {
              "filter": [
                "lowercase",
                "substring"
              ],
              "tokenizer": "keyword"
            },
            "str_search_analyzer": {
              "filter": [
                "lowercase"
              ],
              "tokenizer": "keyword"
            }
          }
        },
        "number_of_replicas": "1",
        "uuid": "3nf915U6T9maLdSiJozvGA",
        "version": {
          "created": "7050199"
        }
      }
    }
  }
}

, и это соответствующая команда python, которая его создала:

es.indices.create(index='sigstore',body={"mappings": {},"settings": { 'index': { "analysis": {"analyzer": {"str_search_analyzer": {"tokenizer": "keyword","filter": ["lowercase"]},"str_index_analyzer": {"tokenizer": "keyword","filter": ["lowercase", "substring"]}},"filter": {"substring": {"type": "nGram","min_gram": 1,"max_gram": 20}}}},'max_ngram_diff': '99'}})

Я использую mon go -connector как трубопровод между моей коллекцией mongoDB и эластичным поиском. Это команда, которую я использую, чтобы запустить ее:

mongo-connector -m mongodb://username:password@xx.xx.xxx.xx:27017/?authSource=admin -t elasticsearch:9200 -d elastic2_doc_manager -n sigstore.sigs

Я не уверен, почему мой эластичный поиск не может получить частичное совпадение, и мне интересно, есть ли какие-то настройки, которые я пропускаю или есть какая-то решающая ошибка, которую я где-то совершил. Спасибо за чтение.

Версии

MongoDB 4.0.10

asticsearch == 7.1.0

astic2-do c -manager [astic5]

1 Ответ

1 голос
/ 20 января 2020

Обновлено после проверки вашей сущности:

Вам необходимо применить сопоставление к вашему полю, как написано в do c, см. Первую ссылку, которой я поделюсь в комментарии.

Вы нужно сделать это после применения настроек к индексу в соответствии с сущностью его строки 11.

Что-то вроде:

PUT /your_index/_mapping
{
  "properties": {
    "name": {
      "type": "keyword",
      "ignore_above": 256,
      "fields": {
        "str_search_analyzer": {
          "type": "text",
          "analyzer": "str_search_analyzer"
        }
      }
    }
  }
}

После того, как вы установили отображение, нужно применить его к вашему документу, используя update_by_query

https://www.elastic.co/guide/en/elasticsearch/reference/master/docs-update-by-query.html

Таким образом, вы можете продолжить поиск с поиском по названию вашего поля, так как оно будет проиндексировано с помощью сопоставления ключевых слов (точное совпадение) и в подполе name.str_search_analyzer с частью слова.

your_keyword = 'KEGG_GLYCOLYSIS_GLUCONEOGENESIS' OR 'KEGG*'

x = es.search(index='sigstore', body={'query': {'bool': {'should':[{'term':  {'name': your_keyword}},
{'match': {'name.str_search_analyzer': your_keyword}}
]}}
})
...