Почему бы не использовать среднеквадратическую ошибку для задачи классификации - PullRequest
0 голосов
/ 07 мая 2019

Я пытаюсь реализовать простую задачу двоичной классификации с использованием RNN LSTM, но пока не могу определить правильную функцию потерь для сети.Проблема заключается в том, что когда я использую cross_binary_entophy в качестве функции потерь, значение потерь для обучения и тестирования является относительно высоким по сравнению с использованием функции mean_square_error.

После исследования я натолкнулся на обоснование того, что двоичная перекрестная энтропия должнабыть использованы для задачи классификации и MSE для проблемы регрессии.Однако, в моем случае, я получаю лучшую точность и меньшее значение потерь с MSE для бинарной классификации.

Я не уверен, как обосновать эти полученные результаты.Абсолютно новый метод AI и ML.

1 Ответ

1 голос
/ 08 мая 2019

Хотел бы поделиться своим пониманием о MSE и cross_binary_entrophy .

В случае классификации мы берем argmax () вероятностикаждого обучающего экземпляра.

Теперь рассмотрим пример двоичного классификатора, где модель предсказывает вероятность как (.49, .51).В этом случае модель вернет «1» в качестве прогноза.

Assume if actual label is also "1".

В этом случае, если используется MSE, она вернет 0 в качестве значения потерь, тогда как cross_binary_entrophy вернет некоторое материальное значение.И если каким-либо образом со всей выборкой данных обученная модель предсказывает подобный тип вероятности, то cross_binary_entrophy эффективно возвращает большое значение накопленной потери, тогда как MSE вернет 0 .

 According to MSE, its a perfect model, but in actuality its not a that good model, that's why we should not use MSE for classification. 
...