Почему точно настроенный vgg-16 работает лучше, чем точно настроенный inception-v3 для того же набора данных? - PullRequest
0 голосов
/ 25 марта 2020

У меня есть набор изображений растений, которые я собрал в поле. С этим набором данных я натренировал тонкую настройку inception-v3 и vgg16.

Это было одинаково для обоих наборов данных

opt = SGD(lr=0.001, momentum=0.09)
# Fine-tuning with a small learning rate
model.compile(loss = 'categorical_crossentropy',optimizer = opt,
              metrics=['accuracy'])

VGG16

Я заморозил все слои в базовой модели и тренировался в течение 50 эпох для разминки. Затем я размораживаю слои, начиная с индекса слоя 15 и обучаясь для 100 эпох.

Это результат. enter image description here

enter image description here

inceptionv3

Я заморозил все слои в основании модель и обучение в течение 20 эпох. Затем я размораживаю все слои ниже индекса слоя 249, как указано в документации keras и обучаю еще 100 эпох.

Это результат.

enter image description here enter image description here

Понятно, что vgg16 работает лучше, чем inceptionv3. В чем причина?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...