Я реализовал 2-слойную (2x20 узлов) пользовательскую регрессию DNN в TensorFlow. 16 числовых функций ввода.
В целом я доволен достигнутой высокой точностью (~ 95%), но меня разочаровывает большая доля крайне неправильных выбросов в моих неправильных предсказаниях.
Я полагаю, что ответ заключается либо в минимизируемой мной функции потерь (в настоящее время MSE), либо в использовании регуляризации (я пробовал разные уровни отсева и регуляризации L2 с небольшим влиянием на сокращение в значительной степени неверных прогнозов).
Первоначально я решил эту проблему, используя классификацию, но переключился на регрессию, надеясь, что сведение к минимуму MSE уменьшит количество крайне неправильных прогнозов.
Существует ли более совершенная функция потерь или метод регуляризации, которые я не рассматривал? Примечание: я использую перекрестную энтропию для классификации, но я считаю, что она не подходит для регрессии.