У меня есть код для импорта текстового файла и получения токенизированных слов с использованием библиотеки NLTK (как это делается в https://www.datacamp.com/community/tutorials/text-analytics-beginners-nltk).. Я легко выполнил почти все, что мне было нужно, однако я стараюсь создать облако слов.со словами, которые у меня есть сейчас, и я не имею ни малейшего понятия, даже после нескольких часов поиска в Интернете.
Это мой код до сих пор:
# Carrega bibliotecas
!pip install nltk
import nltk
from nltk.tokenize import sent_tokenize
nltk.download('punkt')
from nltk.tokenize import word_tokenize
from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator
# Import file
f = open('PNAD2002.txt','r')
pnad2002 = ""
while 1:
line = f.readline()
if not line:break
pnad2002 += line
f.close()
tokenized_word=word_tokenize(pnad2002)
tokenized_word_2 = [w.lower() for w in tokenized_word]
Я хотел использоватьследующий код (из https://github.com/amueller/word_cloud/blob/master/examples/simple.py):
# Read the whole text.
text = open(path.join(d, 'constitution.txt')).read()
# Generate a word cloud image
wordcloud = WordCloud().generate(text)
# Display the generated image:
# the matplotlib way:
import matplotlib.pyplot as plt
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis("off")
# lower max_font_size
wordcloud = WordCloud(max_font_size=40).generate(text)
plt.figure()
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()
Но я не знаю, как использовать мои токенизированные слова с этим.