Во время обучения я хочу, чтобы слой BN оставался неизменным, поэтому я передаю is_training = False в :
tf.contrib.layers.batch_norm(tensor_go_next, decay=0.9, center=True, scale=True, epsilon=1e-9,
updates_collections=tf.GraphKeys.UPDATE_OPS,
is_training=False, scope=name_bn_scope)
и не помещаю name_bn_scope/gamma:0
name_bn_scope/beta:0
для обучения var_list.
После тренировки гамма и бета остаются прежними, чего я и хочу. Но moving_mean и moving _variance станут матрицей nan
после обучения, что приведет к точности 0,1%.
Я не понимаю, почему, доза не is_pting = Поток тензора ложной силы, чтобы сохранить moving_mean и moving _variance без изменений? Как я могу это исправить и реализовать?
слой BN так долго мучил меня, пожалуйста, помогите!