Обучение Keras MobileNetV2 на CIFAR-100 (с нуля) - PullRequest
0 голосов
/ 23 октября 2019

Я хочу обучить MobileNetV2 с нуля на CIFAR-100, и я получаю следующие результаты, где он просто перестает учиться через некоторое время.

enter image description here

Вот мой код. Я хотел бы видеть точность проверки не менее 60-70%, и мне интересно, должен ли я предварительно обучать его на imagenet или потому, что CIFAR100 просто 32x32x3? Из-за некоторых ограничений я использую Keras 2.2.4 с tenorflow 1.12.0.

from keras.applications.mobilenet_v2 import MobileNetV2
[..]

(x_train, y_train), (x_test, y_test) = cifar100.load_data()
x_train = x_train / 255
x_test = x_test / 255
y_train = np_utils.to_categorical(y_train, 100)
y_test = np_utils.to_categorical(y_test, 100)

input_tensor = Input(shape=(32,32,3))
x = MobileNetV2(include_top=False,
                  weights=None,
                  classes=100)(input_tensor)
x = GlobalAveragePooling2D()(x)
x = Dense(1024, activation='relu')(x)
x = Dense(512, activation='relu')(x)
preds = Dense(100, activation='softmax')(x)
model = Model(inputs=[input_tensor], outputs=[preds])

optimizer = Adam(lr=1e-3)
model.compile(loss="categorical_crossentropy",
                           optimizer=optimizer,
                           metrics=['accuracy'])

epochs = 300
batch_size = 64

callbacks = [ReduceLROnPlateau(monitor='val_loss', factor=np.sqrt(0.1), cooldown=0, patience=10, min_lr=1e-6)]
generator = ImageDataGenerator(rotation_range=15,
                                   width_shift_range=5. / 32,
                                   height_shift_range=5. / 32,
                                   horizontal_flip=True)
generator.fit(x_train)
model.fit_generator(generator.flow(x_train, y_train),
                             validation_data=(x_test, y_test),
                             steps_per_epoch=(len(x_train) // batch_size),
                             epochs=epochs, verbose=1,
                             callbacks=callbacks)

1 Ответ

1 голос
/ 23 октября 2019

Ну, MobileNets и все другие модели на основе imagenet понижают частоту дискретизации изображения 5 раз (224 -> 7), а затем делают GlobalAveragePooling2D, а затем выводят слои.

Я думаю, что использование 32 * 32 изображений на этих моделях напрямую не даст вам хорошего результата, так как форма тензора будет 1 * 1 даже до GlobalAveragePooling2D.

Может быть, выследует попробовать изменить размер изображения до 96 * 96 или удалить первый stride=2. Возьмите бумагу NASNet в качестве эталона, они используют 4 пула в версиях Cifar и ImageNet, в то время как только версия ImageNet имеет stride=2 в первом слое свертки.

...