Учитывая, что код работает под Lucene 3.0.1
import java.io.*;
import org.apache.lucene.analysis.*;
import org.apache.lucene.util.Version;
public class MyAnalyzer extends Analyzer {
public TokenStream tokenStream(String fieldName, Reader reader) {
return
new StopFilter(
true,
new StandardTokenizer(Version.LUCENE_30, reader),
StopAnalyzer.ENGLISH_STOP_WORDS_SET
);
}
private static void printTokens(String string) throws IOException {
TokenStream ts = new MyAnalyzer().tokenStream("default", new
StringReader(string));
TermAttribute termAtt = ts.getAttribute(TermAttribute.class);
while(ts.incrementToken()) {
System.out.print(termAtt.term());
System.out.print(" ");
}
System.out.println();
}
public static void main(String[] args) throws IOException {
printTokens("one_two_three"); // prints "one two three"
printTokens("four4_five5_six6"); // prints "four4_five5_six6"
printTokens("seven7_eight_nine"); // prints "seven7_eight nine"
printTokens("ten_eleven11_twelve"); // prints "ten_eleven11_twelve"
}
}
Я могу понять, почему one_two_three
и four4_five5_six6
являются токенизированными, как это, как объяснено в классе StandardTokenizerЗаголовок Javadoc .Но два других случая более тонкие, и я не совсем уверен, что понял идею.
Q1: Если появление 7
после seven
делает его совместным токеном с eight
но отдельно от nine
, почему ten
приклеен к eleven11
?
Q2: Существует ли какой-либо стандартный и / или простой способ сделать StandardTokenizer
всегда разделеннымна подчеркивании?