Я пытаюсь обучить три разных модели с одинаковой архитектурой на трех разных наборах данных. Вот что у меня сейчас:
models_deaths = {}
models_deaths_histories = {}
epochs_per_severity = {"LARGE": 1000, "MEDIUM":100, "SMALL":5}
for severity in severity_map:
inputs_deaths= Input(name='in_deaths'+severity,shape=(x_train[severity].shape[1], x_train[severity].shape[2]))
x_deaths = Dense(64)(inputs_deaths)
inputs_aux_deaths = Input(name='in_aux_deaths'+severity, shape=[x_aux_train[severity].shape[1]])
x_deaths = ConditionalRNN(128, name='LSTM_deaths'+severity, cell='LSTM')([x_deaths, inputs_aux_deaths])
predictions_deaths = Dense(1, name='output_deaths'+severity, activation='relu')(x_deaths)
models_deaths[severity] = Model(inputs=[inputs_deaths, inputs_aux_deaths], outputs=predictions_deaths)
models_deaths[severity].compile(optimizer='adam', loss='mean_squared_error', metrics=['mse'])
models_deaths_histories[severity] = models_deaths[severity].fit([x_train[severity], x_aux_train[severity]],
y_train_deaths[severity],
epochs=epochs_per_severity[severity],
batch_size=256)
Я меняю название слоев, поэтому я подумал, что все будет хорошо, но я получаю странную производительность, и мне интересно, если это потому что он использует те же слои в памяти. Мысли? * * 1004