Искусственный интеллект - современный подход - вероятности c рассуждения во времени - PullRequest
0 голосов
/ 15 февраля 2020

Я сейчас читаю «Искусственный интеллект Питера Норвига». Современный подход. Глава 15 Вероятность c Рассуждение во времени, и я не могу проследить вывод для фильтрации и прогнозирования (стр. 572).

Учитывая результат фильтрации до момента t, агент должен вычислить результат для t + 1 из нового свидетельства e t + 1 ,

P ( X t + 1 | e 1: t + 1 ) = f ( e t + 1 , P ( X t | e 1: t )),

для некоторой функции f. Это называется рекурсивной оценкой. Мы можем рассматривать вычисление как состоящее из двух частей: во-первых, распределение текущего состояния проецируется вперед от t до t + 1; затем оно обновляется с использованием новых доказательств e t + 1 . Этот процесс, состоящий из двух частей, возникает довольно просто при перестановке формулы:

P ( X t + 1 | e 1: t + 1 ) = P ( X t + 1 | e 1: t , e t + 1 ) (деление доказательств)
= α P ( e t + 1 | X t + 1 , e 1: t ) P ( X t + 1 | e 1: t ) (по правилу Байеса)

Как использование правила Байеса приводит к последнему форуму? Разве это не должно быть

α P ( e 1: t , e t + 1 | X т + 1 ) P ( X т + 1 )

1 Ответ

2 голосов
/ 16 февраля 2020

Они оба верны, за исключением того, что α не одинаков между двумя. Хитрость в том, что в применении Байеса Норвигом, кондиционирование по e 1: t поддерживается постоянным на протяжении всего времени. Просто представьте, что этого не было с самого начала. У вас все равно будут все личности. Затем примените это условие к каждой части уравнения, и все тождества будут выполнены.

В качестве альтернативы, деривация также может быть выполнена без явного использования байесовского алгоритма, но вместо этого, просто с использованием определений совместной и условной вероятности. (т. е. P (A | B) P (B) = P (A, B) = P (B | A) P (A)).

P (X t + 1 | e 1: t , e t + 1 ) P (e t + 1 , e 1: t ) = P (e 1: t , e t + 1 | X t + 1 ) P (X t + 1 )

Увеличение вероятностей суставов с обеих сторон дает

P (X t + 1 | e 1: t , e t + 1 ) P (e t + 1 | e 1: t ) P (e 1: t ) = P (e t + 1 | X t + 1 , e 1: t ) P (e 1: t | X t + 1 ) P (X t + 1 )

Последние два члена RHS можно переписать как

P (X t + 1 | e 1: t , e t + 1 ) P (e t + 1 | e 1: t ) P (e 1: t ) = P (e t + 1 | X t + 1 , e 1: t ) P (X t + 1 | e 1: t ) P (e 1: t )

Теперь P (e 1: t ) отменяется (при условии ненулевого значения), и мы имеем

P (X t + 1 | e 1: t , e t + 1 ) = α P (e t + 1 | X t + 1 , e 1: t ) P (X t + 1 | e 1: t )

, где α = 1 / P (e т + 1 | е 1:. т )

...