Валидационные потери меньше, чем тренировочные потери (допустимая точность выше, чем тренировочная точность) без использования отсева - PullRequest
0 голосов
/ 07 апреля 2020

Я работал над многозадачной моделью, используя VGG16 с без выпадающих слоев . Я обнаружил, что точность проверки выше, чем точность обучения, а потеря проверки меньше, чем потеря обучения.

Кажется, я не могу найти причину, почему это происходит в модели.

Ниже приведен тренировочный график:

enter image description here

Данные:

Я использую (произвольно перемешанные изображения) 70% поезд, 15% проверка, 15% тест, и результаты на 15% тестовых данных выглядят следующим образом:

enter image description here enter image description here

Как вы думаете, эти результаты слишком хороши, чтобы быть правдой?

1 Ответ

0 голосов
/ 07 апреля 2020

В начале да, но в конце вы можете видеть, что они начинают меняться.

В конце тренировки вы приближаетесь к точке перехвата (если потеря val начинает увеличиваться или точность val начинает уменьшаться, значит, вы достигли переоснащения)

Но в начале , что может объяснить, что поведение может быть некоторый дисбаланс данных между тренировкой и тестом. Возможно, у вас есть более простые примеры в базе данных проверки, или дисбаланс классов, или больше пустых значений, и т. Д. c.

...