Я понимаю, что дивергенция KL - это относительная энтропия средней информации, поэтому для ее расчета необходимы случайные переменные данные.Но я очень запутался в интуитивной манере, как рассчитать дивергенцию KL из двух матриц:
Вот мой пример:
import numpy as np
a = np.random.normal(0,1,[1000,2])
b = np.random.uniform(0,1,[1000,2])
Обратите внимание, что есть две матрицы, формы 1000,2.Как правильно рассчитать дивергенцию KL?Я действительно предпочел бы увидеть тупой ответ, потому что я пытаюсь понять вещи в механике.Спасибо.