У меня есть набор изображений растений, которые я собрал в поле. С этим набором данных я натренировал тонкую настройку inception-v3 и vgg16.
Это было одинаково для обоих наборов данных
opt = SGD(lr=0.001, momentum=0.09)
# Fine-tuning with a small learning rate
model.compile(loss = 'categorical_crossentropy',optimizer = opt,
metrics=['accuracy'])
VGG16
Я заморозил все слои в базовой модели и тренировался в течение 50 эпох для разминки. Затем я размораживаю слои, начиная с индекса слоя 15 и обучаясь для 100 эпох.
Это результат.
inceptionv3
Я заморозил все слои в основании модель и обучение в течение 20 эпох. Затем я размораживаю все слои ниже индекса слоя 249, как указано в документации keras и обучаю еще 100 эпох.
Это результат.
Понятно, что vgg16 работает лучше, чем inceptionv3. В чем причина?