странные кривые потерь при использовании BatchNormalization в Keras - PullRequest
0 голосов
/ 17 ноября 2018

Часть кода:

mobilenetv2 = MobileNetV2(input_shape=(IMG_SIZE, IMG_SIZE, CHANNELS),
                          alpha=1.0,
                          depth_multiplier=1,
                          include_top=False,
                          weights='imagenet',
                          input_tensor=None,
                          pooling=None,
                          classes=12)

for layer in mobilenetv2.layers:
    layer.trainable = False

last = mobilenetv2.layers[-1].output
x = Flatten()(last)

x = Dense(120, use_bias=False)(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)

x = Dense(84, use_bias=False)(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)

preds = Dense(12, activation='softmax')(x)


model = Model(inputs=mobilenetv2.input, outputs=preds)

но кривая потерь:

enter image description here

enter image description here

Являются ли приведенные выше кривые нормальными?Я не использовал выпадающие слои, потому что меня просят сравнить выпадающие слои с BatchNormalization.но кривые выглядят странно.Верны ли мои коды?Или чего-то не хватает?Спасибо

...