Я написал архитектуру, похожую на этот код здесь без использования последовательного слоя, но он возвращает ValueError,
# Input Memory Representation.
input_story = layers.Input(shape=(story_maxlen,), dtype='int32')
input_story_0 = layers.Embedding(input_dim=vocab_size, output_dim=64)(input_story)
input_story_1 = layers.Dropout(0.3)(input_story_0)
input_question = layers.Input(shape=(query_maxlen,), dtype='int32')
input_question_0 = layers.Embedding(input_dim=vocab_size, output_dim=64)(input_question)
input_question_1 = layers.Dropout(0.3)(input_question_0)
match = layers.dot([input_story_1, input_question_1], axes=(2, 2))
match = layers.Activation('softmax')(match)
# Output Memory Representation.
input_story_11 = layers.Input(shape=(story_maxlen,), dtype='int32')
input_story_12 = layers.Embedding(input_dim=vocab_size, output_dim=query_maxlen)(input_story_11)
input_story_13 = layers.Dropout(0.3)(input_story_12)
add = layers.add([match, input_story_13])
add = layers.Permute((2, 1))(add)
# Generating Final Predictions
x = layers.concatenate([add, input_question_1])
x = layers.LSTM(32)(x)
x = layers.Dropout(0.3)(x)
x = layers.Dense(vocab_size)(x)
x - layers.Activation('softmax')(x)
model = Model(inputs=[input_story, input_question], outputs=x)
Это ошибка, которую я получаю
ValueError: График отключен: невозможно получить значение для тензорного тензора («input_143: 0», shape = (None, 552), dtype = int32) на слое «input_143». Следующие предыдущие слои были доступны без проблем: ['input_142', 'input_141', 'embedding_141', 'embedding_140', 'dropout_152']
Я перепроверил все входные слои,размеры и все в порядке, но я не могу понять, почему я получаю ошибку значения. Кто-нибудь может помочь?