Ну, трудно объяснить математические вещи (например, фильтры Калмана) без математики, но вот моя попытка:
Есть две части фильтра Калмана, часть обновления времени и часть измерения.В части обновления времени мы оцениваем состояние во время наблюдения;в части измерения мы объединяем (посредством наименьших квадратов) наши «предсказания» (то есть оценку из обновления времени) с измерениями, чтобы получить новую оценку состояния.
Пока что нет упоминания о шуме.Существует два источника шума: один в части обновления времени (иногда называемой технологическим шумом) и один в части измерения (шум наблюдения).В каждом случае нам нужна мера «размера» этого шума, то есть ковариационная матрица.Они используются, когда мы объединяем прогнозы с измерениями.Когда мы рассматриваем наши прогнозы как очень неопределенные (то есть они имеют большую ковариационную матрицу), комбинация будет ближе к измерениям, чем к прогнозам;с другой стороны, когда мы рассматриваем наши прогнозы как очень хорошие (небольшая ковариация), комбинация будет ближе к прогнозам, чем к измерениям.
Таким образом, вы можете смотреть на ковариации шума процесса и наблюдения, говоря, насколькодоверять (частям) предсказаниям и наблюдениям.Увеличение, скажем, дисперсии конкретного компонента предсказаний означает: меньше доверяйте этому предсказанию;увеличивая дисперсию конкретного измерения, можно сказать: меньше доверяйте этому измерению.Это в основном аналогия, но ее можно уточнить.Простой случай - когда ковариационные матрицы диагональны.В этом случае стоимость, то есть вклад в то, что мы пытаемся минимизировать, разницы между измерением и вычисленным значением является квадратом этой разности, деленным на дисперсию наблюдений.Таким образом, чем выше дисперсия наблюдений, тем ниже стоимость.
Обратите внимание, что из части измерения мы также получаем новую ковариационную матрицу состояний;это используется (наряду с шумом процесса и динамикой) в следующем обновлении времени, когда мы вычисляем ковариацию прогнозируемого состояния.
Я думаю, что вопрос о том, почему ковариация является подходящей мерой размера шумаявляется довольно глубоким, поэтому наименьшие квадраты - это подходящий способ объединить прогнозы и измерения.Мелкий ответ заключается в том, что фильтрация Калмана и метод наименьших квадратов были найдены на протяжении десятилетий (столетия в случае наименьших квадратов), чтобы хорошо работать во многих областях применения.В случае фильтрации Калмана я нахожу вывод ее из скрытых моделей Маркоба («От скрытых моделей Маркова к линейным динамическим системам» Т.Минки, хотя это довольно математически) убедительным.В скрытых марковских моделях мы стремимся найти (условную) вероятность тех состояний, которые были получены при измерениях;Минка показывает, что если измерения являются линейными функциями состояний, а динамика линейна и все вероятностные распределения являются гауссовыми, то мы получаем фильтр Калмана.