Почему в Seq2Seq с LSTM скрытые данные STATES подаются на декодер в качестве входных данных следующего шага? - PullRequest
0 голосов
/ 19 июня 2019

Я сталкиваюсь с моделью Seq2Seq с приведенным здесь примером кода (https://github.com/keras-team/keras/blob/master/examples/lstm_seq2seq.py). Я не понимаю строку 174 - 176.

decoder_model = Model(
    [decoder_inputs] + decoder_states_inputs,
    [decoder_outputs] + decoder_states)

Почему здесь ввод [decoder_inputs]+ decoder_states_inputs ?? Зачем нам нужно decoder_states_inputs как часть входного сигнала декодера?

Я ожидаю, что decoder_states_inputs будет передаваться как скрытые состояния по умолчанию, а НЕ как входные.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...