эквивалентный кодовый блок tf.keras, написанный на tf.contrib.slim - PullRequest
1 голос
/ 24 мая 2019

Я пытаюсь повторно реализовать код исследовательской работы в tf.keras, в блоке init он был записан как:

with slim.arg_scope([slim.conv2d,separable_conv],activation_fn=tf.nn.relu6, normalizer_fn=slim.batch_norm):
    with slim.arg_scope([slim.batch_norm], is_training=is_training, activation_fn=None):
        with tf.variable_scope(name):
            net = slim.conv2d(inputs, num_outputs=depth, kernel_size=3, stride=2, scope="conv") #padding same

Я не нашел эквивалента в аргументах tf.keras.layer.Conv2D для normalizer_fn = slim.batch_norm. Как этого добиться в керасе?

Я пытался:

model.add(Conv2D("some arguments") #0
model.add(BatchNormalization())

Является ли это действительным эквивалентом приведенного выше кода tf.contrib.slim. С ограниченной документацией tf.contrib.slim я действительно запутался.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...