Я использовал keras для обучения модели seq2seq (keras.models.Model). X и y модели - [X_encoder, X_decoder] и y, т. Е. Список входов и меток кодера и декодера ( Обратите внимание , что на входе декодера, X_decoder равен 'y', на одну позицию впереди фактического г. В основном учитель заставляет).
Итак, мой вопрос теперь после обучения, когда речь идет о реальном прогнозировании, когда у меня нет меток, как я могу предоставить ‘X_decoder’ для моего ввода? Или я тренируюсь на чем-то другом?
Это фрагмент определения модели, если он вообще помогает:)
# Encoder
encoder_inputs = Input(batch_shape=(batch_size, max_len,), dtype='int32')
encoder_embedding = embedding_layer(encoder_inputs)
encoder_LSTM = CuDNNLSTM(hidden_dim, return_state=True, stateful=True)
encoder_outputs, state_h, state_c = encoder_LSTM(encoder_embedding)
# Decoder
decoder_inputs = Input(shape=(max_len,), dtype='int32')
decoder_embedding = embedding_layer(decoder_inputs)
decoder_LSTM = CuDNNLSTM(hidden_dim, return_state=True, return_sequences=True)
decoder_outputs, _, _ = decoder_LSTM(decoder_embedding, initial_state=[state_h, state_c])
# Output
outputs = TimeDistributed(Dense(vocab_size, activation='softmax'))(decoder_outputs)
model = Model([encoder_inputs, decoder_inputs], outputs)
# model fitting:
model.fit([X_encoder, X_decoder], y, steps_per_epoch=int(number_of_train_samples/batch_size),
epochs=epochs)