Как использовать слой внимания в tenorflow 2.0 с последовательной моделью? - PullRequest
0 голосов
/ 28 апреля 2020

Я не нашел много информации об этом, но я думаю, что должен быть способ, поскольку существует

tf.keras.layers.Attention

Каков будет правильный способ подключения этого слоя к существующему seq2seq Модель последовательного тензорного потока?

В настоящее время это то, что у меня есть

model = Sequential()
model.add(LSTM(32, input_shape=training_x[0].shape, dropout=0.5))
model.add(RepeatVector(daysToPredict))
model.add(LSTM(32, return_sequences=True, dropout=0.5))
model.add(TimeDistributed(Dense(1, activation='linear')))

Есть ли способ добавить слой внимания где-то здесь?

...