Перекрестная потеря энтропии возвращает бесконечность в нейронной сети - PullRequest
0 голосов
/ 29 февраля 2020

Я внедряю нейронную сеть и использую функцию кросс-энтропийной потери. Ошибка перекрестной энтропии определяется следующим образом:

error = - np.sum((actual_Y * np.log2 (Y_pred)) + ((1-actual_Y)* np.log2 (1 - Y_pred)))

после нескольких итераций (1- Y_pred) внутри np.log2() начало возврата -inf.

почему это происходит и что его решение? Очевидно, что log2(0) есть -inf, но как его преодолеть.

...