Хотя можно покопаться в документации, я собираюсь предоставить здесь код на SO, особенно с учетом того, что ссылки перемещаются и / или умирают.Этот конкретный ответ использует весь конвейер.Если меня не интересует весь конвейер, я предоставлю альтернативный ответ всего за секунду.
Приведенный ниже пример представляет собой полный способ использования Стэнфордского конвейера.Если вас не интересует разрешение ссылок, удалите dcoref
из 3-й строки кода.Таким образом, в приведенном ниже примере конвейер выполняет разбиение предложения для вас (аннотатор ssplit), если вы просто подаете его в теле текста (текстовая переменная).Есть только одно предложение?Ну, это нормально, вы можете указать это как текстовую переменную.
// creates a StanfordCoreNLP object, with POS tagging, lemmatization, NER, parsing, and coreference resolution
Properties props = new Properties();
props.put("annotators", "tokenize, ssplit, pos, lemma, ner, parse, dcoref");
StanfordCoreNLP pipeline = new StanfordCoreNLP(props);
// read some text in the text variable
String text = ... // Add your text here!
// create an empty Annotation just with the given text
Annotation document = new Annotation(text);
// run all Annotators on this text
pipeline.annotate(document);
// these are all the sentences in this document
// a CoreMap is essentially a Map that uses class objects as keys and has values with custom types
List<CoreMap> sentences = document.get(SentencesAnnotation.class);
for(CoreMap sentence: sentences) {
// traversing the words in the current sentence
// a CoreLabel is a CoreMap with additional token-specific methods
for (CoreLabel token: sentence.get(TokensAnnotation.class)) {
// this is the text of the token
String word = token.get(TextAnnotation.class);
// this is the POS tag of the token
String pos = token.get(PartOfSpeechAnnotation.class);
// this is the NER label of the token
String ne = token.get(NamedEntityTagAnnotation.class);
}
// this is the parse tree of the current sentence
Tree tree = sentence.get(TreeAnnotation.class);
// this is the Stanford dependency graph of the current sentence
SemanticGraph dependencies = sentence.get(CollapsedCCProcessedDependenciesAnnotation.class);
}
// This is the coreference link graph
// Each chain stores a set of mentions that link to each other,
// along with a method for getting the most representative mention
// Both sentence and token offsets start at 1!
Map<Integer, CorefChain> graph =
document.get(CorefChainAnnotation.class);