Я использую следующий код для LatentDirichletAllocation через scikit библиотеки python:
tf_vectorizer = CountVectorizer(max_df=0.95, min_df=2, stop_words='english')
tf = tf_vectorizer.fit_transform(documents)
lda_model = LatentDirichletAllocation(n_components=10, max_iter=5,
learning_method='online', learning_offset=50.,random_state=0).fit(tf)
lda_W = lda_model.transform(tf)
lda_H = lda_model.components_
когда я печатаю форму lda_H, он возвращает (10, 236), я понимаю, 10 для номеров тем и 236 дляслова.Я хочу увидеть влияние альфы на это, поэтому я изменил приведенный выше код на:
lda_model = LatentDirichletAllocation(n_components=10,doc_topic_prior=.01, max_iter=5,
learning_method='online', learning_offset=50.,random_state=0).fit(tf)
lda_W = lda_model.transform(tf)
lda_H = lda_model.components_
, однако я обнаружил, что альфа не влияет на слова в темах, и lda_H по-прежнему возвращает (10, 236).Интересно, почему альфа не меняет слова в теме.Я пробовал разные значения альфа, но в lda_H не наблюдается никаких изменений. Пожалуйста, любые комментарии по этому поводу.