Могу ли я использовать Stanford Core NLP для глубокого обучения помимо Keras и Spacy? - PullRequest
0 голосов
/ 16 февраля 2019

Я пытаюсь выполнить анализ настроений над данными в Твиттере с помощью Deep Learning (RNN).Я знаю, что существуют различные другие библиотеки глубокого обучения, такие как TF, keras, gensim и т. Д., Но я хотел знать, возможно ли выполнить глубокое обучение с использованием библиотеки CoreNLP.

https://github.com/charlescc9/deep-learning-sentiment-analysis

Этот человек выше пытается сравнить gensim, tenorflow и core nlp для глубокого обучения.Но документации практически нет, и я не могу понять, как запустить файл (или) требуемые зависимости.Пожалуйста, помогите мне здесь.

1 Ответ

0 голосов
/ 17 февраля 2019

Я использовал RNN по той же причине и раньше, и вот что я сделал:

Подготовка

  1. Загрузите пакет coreNLP.Вы можете сделать это из здесь .
  2. Установить pycorenlp wrapper , запустив pip install pycorenlp.
  3. Установить Java>=1.8, если он не установлен.

Использование

Теперь давайте посмотрим, как его использовать:

  1. Извлеките загруженный zip-файл в каталог вашего проекта
  2. Откройте терминал и выполните следующее: java -mx5g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer -timeout 10000
  3. Теперь сервер работает на localhost:9000 по умолчанию.Теперь вы можете написать свою программу.

Вот простой пример:

>>> from pycorenlp import StanfordCoreNLP
>>>
>>> sentence = "NLP is great"
>>> nlp = StanfordCoreNLP('http://localhost:9000')
>>> res = nlp.annotate(sentence, properties={ 'annotators': 'sentiment',
...                                           'outputFormat': 'json',
...                                           'timeout': 10000,})
>>> #you can get the class by:
>>> klass = res["sentences"][0]["sentimentValue"]
...