Я новичок в python и программировании, и мне нужна ваша помощь.
Я пытаюсь посчитать самые распространенные слова в тексте, используя nltk.word_tokenize
и Counter
. Когда я получаю список всех элементов текста и хочу подсчитать их все, Counter
считает только буквы.
Это код:
from nltk.tokenize import word_tokenize
word_counter = Counter()
test3 = "hello, hello, how are you? It's me - Boris"
words = word_tokenize(test3)
print(words)
['hello', ',', 'hello', ',', 'how', 'are', 'you', '?', 'It', "'s", 'me', '-', 'Boris']
for word in words:
word_counter.update(word)
print(word_counter)
Вывод:
Counter({'o': 5, 'e': 4, 'l': 4, 'h': 3, ',': 2, 'r': 2, 's': 2, 'w': 1, 'a': 1, 'y': 1, 'u': 1, '?': 1, 'I': 1, 't': 1, "'": 1, 'm': 1, '-': 1, 'B': 1, 'i': 1})
Как я мог решить это? Я просматриваю некоторые темы, они решают это с помощью text.split()
, но это не так точно, как nltk
.
Спасибо!