Если я правильно понял, здесь есть два вопроса:
Можно ли определить, какие функции на входе активировали нейроны?
Если да, то возможно ли использовать эту информацию для генерации образцов из p(x|y)
?
Относительно 1
, основного c способа определения, является ли нейрон чувствителен к входной функции x_i
- для вычисления градиента выходного сигнала этого нейрона относительно x_i
. Высокий градиент будет указывать на чувствительность к конкретному элементу ввода. По этому вопросу имеется обширная литература, например, вы можете взглянуть на управляемое обратное распространение или на GradCam (последняя касается классификации с ловушками, но она содержит полезные идеи).
Что касается 2
, я не думаю, что ваш подход к «решению проблемы» является правильным. Проблема в том, что ваша сеть является дискриминационной, и то, что она выводит, можно увидеть как argmax_y p(y|x)
. Обратите внимание, что это точечная оценка, а не полное моделирование распределения. Однако обратная проблема, которая вас интересует, - это выборка из
p(x|y)=constant*p(y|x)p(x).
. Вы не знаете, как производить выборку из p(y|x)
, и вы ничего не знаете о p(x)
. Даже если вы используете метод для обнаружения корреляций между нейронами и указанными c входными функциями, вы только обнаружили, какие функции более важны для предсказания сетей, но в зависимости от характера y
это может быть недостаточно. Рассмотрим игрушечный пример, где ваши входные данные x
представляют собой 2d точки, распределенные в соответствии с некоторым распределением в R^2
, и где выходные данные y
являются двоичными, так что любой (a,b) in R^2
классифицируется как 1
, если a<1
, и он классифицируется как 0
, если a>1
. Тогда дискриминирующая сеть может узнать вертикальную линию x=1
в качестве границы своего решения. Изучение корреляций между нейронами и входными функциями покажет, что только первая координата была полезна в этом прогнозе, но этой информации недостаточно для выборки из полного 2-мерного распределения входных данных.
Я думаю, что Вариационные автоэнкодеры могут быть тем, что вы ищете.