Градиент LSTM один-ко-многим выходной модели по вводу - PullRequest
0 голосов
/ 31 октября 2019

У меня есть модель LSTM, которая принимает в качестве входных данных вектор x0 (размерность: n) и возвращает последовательность векторов (размер: T xn). Мне требуется производная каждой последовательности по x0 (размер: nxn). Таким образом, мне нужна якобиева матрица размера (T xnxn). Какой самый эффективный способ сделать это в TensorFLow. Мне это нужно для исследования оптимизации, для которого требуется функция, которая берет x0 и возвращает производную информацию. Обыскав все доступные варианты, у меня нет хорошего способа подойти к этому. Любая помощь (код psuedo, документация, сообщения и т. Д.) Будет очень полезной

1 Ответ

0 голосов
/ 31 октября 2019

Не совсем уверен, что это именно то, что вы ищете, но Tensorflow имеет стремительное выполнение (допускает интерактивную отладку) и довольно всеобъемлющую структуру для автоматического вычисления градиентов. Сочетание этих двух может помочь. Эта ссылка включает в себя некоторые детали и пример кода, который может подойти для ваших конкретных потребностей: https://www.tensorflow.org/guide/eager и, в частности, этот раздел: https://www.tensorflow.org/guide/eager#computing_gradients вместе с другими на пост.

Я надеюсьэто помогает.

...