Я думаю, вы подумаете о Bayesian Learning.Во-первых, говоря о неопределенности .
Например, учитывая несколько изображений пород собак в качестве обучающих данных - когда пользователь загружает фотографию своей собаки - гипотетический веб-сайт должен возвращать прогноз с довольновысокая уверенностьНо что должно произойти, если пользователь загрузит фотографию кошки и попросит веб-сайт принять решение о породе собаки?
Вышеприведенный пример является примером данных теста вне распространения.Модель была обучена на фотографиях собак разных пород, и (надеюсь) научилась хорошо различать их.Но модель никогда не видела кошку раньше, и фотография кошки лежала бы вне распределения данных, на котором обучалась модель.Этот иллюстративный пример может быть расширен до более серьезных настроек, таких как МРТ-сканирование со структурами, которые система диагностики ранее никогда не наблюдала, или сцены, на которых автономная система управления автомобилем никогда не обучалась.
Возможное желаемое поведениеМодель в таких случаях будет возвращать прогноз (пытаясь экстраполировать вдали от наших наблюдаемых данных), но возвращать ответ с дополнительной информацией о том, что точка находится за пределами распределения данных.Мы хотим, чтобы наша модель обладала некоторой величиной, передающей высокий уровень неопределенности с такими входными данными (альтернативно, передавая низкую достоверность).
Тогда, я думаю, вы могли бы кратко прочитать эту статью когда они также применяются к задаче классификации и генерируют неопределенность для классов (собака, кошка ...).Из этой статьи вы можете распространить свои выводы на применение, используя эту статью, и я думаю, вы найдете то, что хотите.