Почему распределение Лапласа эквивалентно потере L1? - PullRequest
0 голосов
/ 01 ноября 2019

В машинном обучении я использую потери L2 (потери MSE), когда оцениваю параметры и выходные данные модели с многомерным гауссовым распределением.

доказательство потери L2

Многие разработчики ИИ используют потери L1 (потери MAE), когда модель выводит данные с распределением Лапласа.

При https://en.wikipedia.org/wiki/Laplace_distribution, Я нашел доказательство, подобное верхнему.

Но я хочуизвестно доказательство из многомерного распределения Лапласа (фиксированная дисперсия изотропного многомерного Лапласа) в L1 Loss.

Я хочу доказательство, подобное L2.

...