Печать части речи вместе с синонимами слова - PullRequest
2 голосов
/ 11 мая 2011

У меня есть следующий код для извлечения слова из входного текстового файла и печати синонимов, определений и примеров предложений для слова с использованием WordNet. Он отделяет синонимы от синтаксиса на основе части речи, то есть синонимы, которые являются глаголами, и синонимы, которые являются прилагательными, печатаются отдельно.

Примером слова ошеломленный синонимами являются: 1) flabbergast, boggle, чаша, над которой глаголы, и 2) ошеломленный, ошеломленный, ошеломленный, ошеломленный, ошеломленный, ошеломленный, ошеломленный, которые являются прилагательными.

Как мне распечатать часть речи вместе с синонимами? Ниже предоставлен код, который у меня есть:


import nltk
from nltk.corpus import wordnet as wn
tokenizer = nltk.data.load('tokenizers/punkt/english.pickle')
fp = open('sample.txt','r')
data = fp.read()
tokens= nltk.wordpunct_tokenize(data)
text = nltk.Text(tokens)
words = [w.lower() for w in text]
for a in words:
   print a 
syns = wn.synsets(a)
for s in syns:
   print 
   print "definition:" s.definition
   print "synonyms:"
   for l in s.lemmas:
      print l.name
   print "examples:"
   for b in s.examples:
      print b
   print 

Ответы [ 2 ]

1 голос
/ 11 мая 2011

Похоже, вы испортили свой отступ:

for a in words:
   print a 
syns = wn.synsets(a)

Похоже, syns = wn.synsets(a) должно быть в цикле words, так что вы можете сделать это для каждого слова:

for w in words:
    print w
    syns = wn.synsets(w)
    for s in syns:
        print
        print "definition:", s.definition
        print "synonyms:"
        for l in s.lemmas:
            print l.name
        print "examples:"
        for b in s.examples:
            print b
    print
0 голосов
/ 08 июня 2011

Лемма имеет атрибут synset, который имеет свою собственную часть речи в своем атрибуте pos. Итак, если у нас есть лемма l, мы можем получить доступ к ее части речи следующим образом:

>>> l = Lemma('gladden.v.01.joy')
>>> l.synset.pos
'v'

В более общем смысле, мы можем расширить это в цикл для чтения вашего файла. Я использую оператор with, потому что он хорошо закрывает файлы после завершения цикла.

>>> with open('sample.txt') as f:
...     raw = f.read()
...     for sentence in nltk.sent_tokenize(raw):
...         sentence = nltk.wordpunct_tokenize(sentence)
...         for word in sentence:
...             for synset in wn.synsets(word):
...                 for lemma in synset.lemmas:
...                     print lemma.name, lemma.synset.pos
...

Если вы хотите убедиться, что вы выбираете только леммы с той же частью речи, что и слово, о котором вы сейчас говорите, то вам нужно будет также указать часть речи этого слова:

>>> import nltk
>>> from nltk.corpus import wordnet as wn
>>> with open('sample.txt') as f:
...     raw = f.read()
...     for sentence in nltk.sent_tokenize(raw):
...         sentence = nltk.pos_tag(nltk.wordpunct_tokenize(sentence))
...         for word, pos in sentence:
...             print word, pos

Я оставлю примирение этих двух как упражнение для читателя.

...