Я сталкиваюсь с моделью Seq2Seq с приведенным здесь примером кода (https://github.com/keras-team/keras/blob/master/examples/lstm_seq2seq.py). Я не понимаю строку 174 - 176.
decoder_model = Model(
[decoder_inputs] + decoder_states_inputs,
[decoder_outputs] + decoder_states)
Почему здесь ввод [decoder_inputs]+ decoder_states_inputs ?? Зачем нам нужно decoder_states_inputs как часть входного сигнала декодера?
Я ожидаю, что decoder_states_inputs будет передаваться как скрытые состояния по умолчанию, а НЕ как входные.