Этот поток содержит хороший пример того, как использовать оболочку для библиотеки Stanfords CoreNLP.Вот пример, который я использую:
from pycorenlp import StanfordCoreNLP
nlp = StanfordCoreNLP('http://localhost:9000')
res = nlp.annotate("I love you. I hate him. You are nice. He is dumb",
properties={
'annotators': 'sentiment',
'outputFormat': 'json',
'timeout': 1000,
})
for s in res["sentences"]:
print("%d: '%s': %s %s" % (
s["index"],
" ".join([t["word"] for t in s["tokens"]]),
s["sentimentValue"], s["sentiment"]))
Скажем, у меня есть +10000 предложений, которые я хочу проанализировать, как в этом примере.Можно ли обрабатывать их параллельно и многопоточно?