Я проверял это с keras 2.3, keras в tenorflow-gpu 2.0 и tenorflow-gpu 2.1.
При обучении модели, имеющей много выходных слоев (в моем случае 9), keras зависает случайным образом во время тренировки , используя 1 слой исправить это. Что-то не так, что я делаю?
Исправьте это с помощью конкатенационного слоя, если я объединю все выходные слои, будет ли он работать так же, как это?
моя модель:
input_layer = Input(shape=(dims[0],))
hidden = Dense(dims[1],activation='relu')(input_layer)
for i in range(2,len(dims)-2):
hidden = Dense(dims[i],activation='relu')(hidden)
policy = []
for i in range(dims[-1]):
hiddenl = Dense(dims[-2],activation='relu')(hidden)
policy.append( Dense(n_atoms,activation='softmax')(hiddenl) )
rmodel = Model(inputs=input_layer, outputs=policy)
rmodel.compile(loss='categorical_crossentropy', optimizer=Adam(lr=lr,decay=decay))
Редактировать: use_multiprocessing=True
каким-то образом решить проблему.