Поскольку LDDP эквивалентен отрицательной KL-дивергенции от вашей функции плотности m (x) к вашему распределению вероятностей p (x), вы можете использовать одну из многих реализаций KL-дивергенции, например, из scipy.stats.entropy
.
Подходящая процедура (при условии, что у вас есть конечная поддержка) состоит в том, чтобы аппроксимировать непрерывное распределение дискретным путем выборки по его опоре и вычисления дивергенции KL.
Если это невозможно, тогда ваш единственный вариант, который я могу придумать, - это, вероятно, использовать численные (или, возможно, аналитические c?) методы интегрирования, которых у вас должно быть много. Легким первым шагом было бы попробовать методы Монте-Карло.