Я изучаю, как использовать байесовскую оценку для сравнения моделей, и мне нужно сравнить ее со способом ее реализации.До сих пор я только нашел, что эту статью легче понять, но я все еще не уверен, как реализовать.Если вы перейдете на страницу 20 «Сравнение моделей с использованием байесовских данных».
Нам просто нужно рассчитать это для каждой модели и сравнить:
Также какавтор упомянул: «P (M) - априорная вероятность модели. Если у нас нет оснований отдавать предпочтение одной модели над другой, то мы просто устанавливаем все они равными».P(D|Mi)
является доказательством и «Важным моментом является то, что доказательство - это нормализованный PDF поверх данных».
Это вызвало у меня 2 вопроса:
P (Mi) может быть одинаковым для всех моделей, это означает, что я могу установить их всех как 1 или их суммудолжно быть 1?
Если доказательство P (D | Mi) нормализовано в формате pdf, это должен быть дистрибутив, верно?Тогда как я могу преобразовать нормализованный PDF в значение?Что меня больше всего смущает, так это представьте, что у меня есть функции X, базовая правда y и предсказанные классы y_pred.Как рассчитать P (D | Mi) для каждой модели?
Можно ли привести простой пример с features X, ground truth y, and predicted classes y_pred
?Если вы можете сделать это в Python или R, это даже лучше.