Lucene - simpleAnalyzer - Как получить подходящие слова? - PullRequest
2 голосов
/ 15 марта 2012

Я не могу получить смещение или непосредственно само слово, используя следующий алгоритм. Любая помощь будет оценена

   ...
   Analyzer analyzer = new SimpleAnalyzer();
   MemoryIndex index = new MemoryIndex();

   QueryParser parser = new QueryParser(Version.LUCENE_30, "content", analyzer);

   float score = index.search(parser.parse("+content:" + target));

   if(score > 0.0f)
        System.out.println("How to know matched word?");

1 Ответ

2 голосов
/ 15 марта 2012

Здесь целый индекс памяти и пример поиска. Я только что написал для себя, и это работает отлично. Я понимаю, что вам нужно хранить индекс в памяти, но вопрос в том, зачем вам нужен MemoryIndex для этого? Вместо этого вы просто используете RAMDirectory, и ваш индекс будет храниться в памяти, поэтому при выполнении поиска индекс будет загружен из RAMDirectory (память).

    StandardAnalyzer analyzer = new StandardAnalyzer(Version.LUCENE_34);
    IndexWriterConfig config = new IndexWriterConfig(Version.LUCENE_34, analyzer);
    RAMDirectory directory = new RAMDirectory();
    try {
        IndexWriter indexWriter = new IndexWriter(directory, config);
        Document doc = new Document();
        doc.add(new Field("content", text, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_OFFSETS));
        indexWriter.addDocument(doc);
        indexWriter.optimize();
        indexWriter.close();

        QueryParser parser = new QueryParser(Version.LUCENE_34, "content", analyzer);
        IndexSearcher searcher = new IndexSearcher(directory, true);
        IndexReader reader = IndexReader.open(directory, true);

        Query query = parser.parse(word);
        TopScoreDocCollector collector = TopScoreDocCollector.create(10000, true);
        searcher.search(query, collector);
        ScoreDoc[] hits = collector.topDocs().scoreDocs;
        if (hits != null && hits.length > 0) {
            for (ScoreDoc hit : hits) {
                int docId = hit.doc;
                Document hitDoc = searcher.doc(docId);

                TermFreqVector termFreqVector = reader.getTermFreqVector(docId, "content");
                TermPositionVector termPositionVector = (TermPositionVector) termFreqVector;
                int termIndex = termFreqVector.indexOf(word);
                TermVectorOffsetInfo[] termVectorOffsetInfos = termPositionVector.getOffsets(termIndex);

                for (TermVectorOffsetInfo termVectorOffsetInfo : termVectorOffsetInfos) {
                    concordances.add(processor.processConcordance(hitDoc.get("content"), word, termVectorOffsetInfo.getStartOffset(), size));
                }
            }
        }

        analyzer.close();
        searcher.close();
        directory.close();
...