Вы бы использовали кросс-энтропийную потерю softmax, если только один класс может быть "истинным".Основная истина для одного примера (например, одного изображения) в вашей задаче может выглядеть как [0,0,0,1,0,0]
.Эти 6 значений могут, например, представлять 6 различных классов, таких как ['cat', 'dog', 'house', 'fish', 'shoe', 'boat']
.
. Конечным результатом вашей сети будет список «вероятностных» оценок для каждого скаляра в вашем выходном векторе.Вероятности будут суммироваться до 1, например, [0.05, 0.1, 0.15, 0.55, 0.15]
.
. Вы бы использовали функцию потери сигмовидной кишки, если проблема, которую вы пытаетесь решить, включает в себя вероятность того, что множественные значения будут "истинными"", например, истинная правда может быть [0,1,0,1,0,0]
.