Я внедряю нейронную сеть и использую функцию кросс-энтропийной потери. Ошибка перекрестной энтропии определяется следующим образом:
error = - np.sum((actual_Y * np.log2 (Y_pred)) + ((1-actual_Y)* np.log2 (1 - Y_pred)))
после нескольких итераций (1- Y_pred)
внутри np.log2()
начало возврата -inf
.
почему это происходит и что его решение? Очевидно, что log2(0)
есть -inf
, но как его преодолеть.