В машинном обучении я использую потери L2 (потери MSE), когда оцениваю параметры и выходные данные модели с многомерным гауссовым распределением.
доказательство потери L2
Многие разработчики ИИ используют потери L1 (потери MAE), когда модель выводит данные с распределением Лапласа.
При https://en.wikipedia.org/wiki/Laplace_distribution, Я нашел доказательство, подобное верхнему.
Но я хочуизвестно доказательство из многомерного распределения Лапласа (фиксированная дисперсия изотропного многомерного Лапласа) в L1 Loss.
Я хочу доказательство, подобное L2.