реконструировать входы из выходов в регрессионных нейронных сетях в тензорном потоке - PullRequest
0 голосов
/ 18 мая 2018

Скажем, мы обучаем многослойный NN в тензорном потоке для задачи регрессии (т.е. случай с несколькими входами и несколькими выходами).Затем у нас появляются новые экземпляры, мы применяем обученную модель и, конечно, получаем соответствующие результаты.Есть ли способ обратного распространения выходов и реконструкции входов в тензорном потоке простым / эффективным способом?Я думаю о том, чтобы затем использовать разницу между оригиналом и реконструированными входами новых экземпляров в качестве меры контроля качества, то есть, если реконструированные входы не достаточно близки к оригиналам, тогда у нас есть проблема и т. Д. Я надеюсь, что создаю самЧисто.

1 Ответ

0 голосов
/ 18 мая 2018

Нет, к сожалению, вы не можете взять обученную модель и попытаться получить соответствующий ввод.Причина этого в том, что у вас есть бесконечные возможные решения для каждого выхода.

Кроме того, обратное распространение не передает выходные данные назад по сети.Идея состоит в том, чтобы определить, какие параметры в модели влияют на потери.Это не даст входных данных этим скрытым слоям, но степень влияния весов на ваше решение.

...