правильный способ расчета KL-дивергенции в питоне, только с numpy - PullRequest
0 голосов
/ 06 декабря 2018

Я понимаю, что дивергенция KL - это относительная энтропия средней информации, поэтому для ее расчета необходимы случайные переменные данные.Но я очень запутался в интуитивной манере, как рассчитать дивергенцию KL из двух матриц:

Вот мой пример:

import numpy as np

a = np.random.normal(0,1,[1000,2])
b = np.random.uniform(0,1,[1000,2])

Обратите внимание, что есть две матрицы, формы 1000,2.Как правильно рассчитать дивергенцию KL?Я действительно предпочел бы увидеть тупой ответ, потому что я пытаюсь понять вещи в механике.Спасибо.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...