Общий выпадающий слой на входе - PullRequest
0 голосов
/ 07 февраля 2019

Я хочу применить одно и то же выпадение к двум входным тензорам одинаковой формы.Один из способов сделать это - соединить входы, применить выпадение, а затем снова разделить тензоры.Таким образом, одни и те же функции будут исключены из каждого ввода в каждой итерации.

Код работает нормально, и модель обучается.Может ли кто-нибудь подтвердить, что я сделал то, что ожидал?Я не знаю, как сравнить тензоры, иначе я мог бы просто изменить выпадение на 0 и сравнить вывод с вводом.

#input1 (10, 6) input2 (10,6)
input_list = [input1, input2]

#Join inputs and form (20x6) tensor
input_concat = keras.layers.concatenate(input_list, axis=1)
input_dropout = Dropout(0.5)(input_concat)
reshaped_input = keras.layers.Reshape((10, 6, 2))(input_dropout)

input_1 = keras.layers.Lambda(lambda x:x[:,:,:,0])(reshaped_input)
input_2 = keras.layers.Lambda(lambda x:x[:,:,:,1])(reshaped_input)
...