Я пытаюсь понять, как кросс-энтропия используется для определения потерь в задачах классификации.
Я довольно озадачен утверждением в Википедии, что Крестовая энтропия всегда больше, чем энтропия.Я придумал очень простое распределение p (действительное распределение) и q (предполагаемое распределение) и рассчитал перекрестную энтропию и энтропию.И обнаружили, что перекрестная энтропия в этом случае меньше энтропии.
import numpy as np
p = [0.5, 0.2, 0.2, 0.1]
q_1 = [0.4, 0.2, 0.2, 0.2]
q = [0.4, 0.2, 0.2, 0.2]
def cross_entropy(p, q):
return np.sum(-1*np.multiply(p, np.log(q)))
# Get cross entropy
print(cross_entropy(p, q))
# Get entropy
print(cross_entropy(q_1, q))
Что пошло не так?