Я не нашел много информации об этом, но я думаю, что должен быть способ, поскольку существует
tf.keras.layers.Attention
Каков будет правильный способ подключения этого слоя к существующему seq2seq Модель последовательного тензорного потока?
В настоящее время это то, что у меня есть
model = Sequential()
model.add(LSTM(32, input_shape=training_x[0].shape, dropout=0.5))
model.add(RepeatVector(daysToPredict))
model.add(LSTM(32, return_sequences=True, dropout=0.5))
model.add(TimeDistributed(Dense(1, activation='linear')))
Есть ли способ добавить слой внимания где-то здесь?