Как правильно добавить регуляризаторы активности ядра, смещения и активности с помощью BatchNormalization, используя функциональный API tf.keras? - PullRequest
1 голос
/ 27 мая 2019

Поскольку BatchNormalization предшествует активации, я предполагаю, что не могу указать параметр activity_regularizers как часть плотного слоя. Это верно? Тогда я должен использовать ActivityRegularization после активации, как это?

x = Dense(64, kernel_regularizer=l2(0.01), bias_regularizer=l2(0.01))(input)
x = BatchNormalization()(x)
x = Activation("relu")(x)
x = ActivityRegularization(l1=0.0, l2=0.01)(x)
...
...