Я пытаюсь повторно реализовать код исследовательской работы в tf.keras, в блоке init он был записан как:
with slim.arg_scope([slim.conv2d,separable_conv],activation_fn=tf.nn.relu6, normalizer_fn=slim.batch_norm):
with slim.arg_scope([slim.batch_norm], is_training=is_training, activation_fn=None):
with tf.variable_scope(name):
net = slim.conv2d(inputs, num_outputs=depth, kernel_size=3, stride=2, scope="conv") #padding same
Я не нашел эквивалента в аргументах tf.keras.layer.Conv2D для normalizer_fn = slim.batch_norm. Как этого добиться в керасе?
Я пытался:
model.add(Conv2D("some arguments") #0
model.add(BatchNormalization())
Является ли это действительным эквивалентом приведенного выше кода tf.contrib.slim. С ограниченной документацией tf.contrib.slim я действительно запутался.