Я узнал, как использовать MLE, чтобы получить вероятность возникновения вероятности для элемента категории в наивном байесовском методе.
watermelon quality prediction example:
color texture quality
1 green clear good
2 black clear good
3 white blur good
4 green blur bad
5 black blur bad
6 white clear bad
Что я знаю, это вероятность элемента равна P (текстура = ясно | качество = хорошо) =2/3 от MLE.Каким образом полиномиальное распределение соответствует распределению вероятностей признаков, а затем прогнозировать P (текстура = размытие | качество = хорошее)?
text type prediction example(bag of word, every feature is word count):
pig dog cat type
1 3 4 1 1
2 1 2 3 1
3 4 5 1 0
4 1 1 1 0
Согласно известному наивному байесовскому классификатору, наивный байесовский классификатор нуждается в распределении вероятностейчтобы соответствовать распределению объектов, например распределению Гаусса.Как многочленное распределение соответствует распределению признаков P (pig | type = 1)?Как использовать встроенное полиномиальное распределение для прогнозирования P (pig = 0 | type = 1), P (pig = 1 | type = 1), P (pig = 3 | type = 1)?