Почему две модели логического вывода с одинаковым mAP имеют разную производительность при развертывании? - PullRequest
0 голосов
/ 11 декабря 2018

Администратор хочет задавать вопросы Deep Learning на другом сайте, но этот сайт не отвечает.Но я верю, что этот вопрос будет полезен тем, кто, как я, обучает собственную сеть.

У меня есть две модели логического вывода.Один использует сеть VGG, а другой - свою собственную сеть.Когда тренировка VGG net дала среднее значение AP, это 0,99

AP for vertical = 0.9999
AP for horizontal = 0.9847
AP for plate = 0.9981
Mean AP = 0.9943

. Я обучил свою собственную сеть, и у меня было среднее значение AP, равное 0,98

AP for vertical = 0.9946
AP for horizontal = 0.9688
AP for plate = 0.9879
Mean AP = 0.9837

Это было близко, поэтому производительность должна быть достаточно близкой.

Когда я тестирую, вывод, обученный с помощью VGGNet, довольно хорош.Все объекты обнаружены.

Но для моей собственной модели некоторые объекты не обнаружены.Моя модель логического вывода была обучена с помощью инициализации Xavier, а VGGNet имеет предварительно обученную модель.

Что мне делать дальше, поскольку два mAP довольно близки, поэтому я ожидаю аналогичной производительности?

...