Как это возможно, что точность набора проверки возрастает, когда кросс-энтропия растет одновременно? - PullRequest
0 голосов
/ 16 февраля 2019

Насколько я понимаю, кросс-энтропия измеряет размер ошибки между реальными и прогнозными метками, как возможно, что ошибка увеличилась, но точность также увеличилась?

Я думаю, что этоэто общий вопрос, но вот более подробно об обучении:- модель переподготовки из TensorFlow Hub с retrain.py - Функция потерь tf.losses.sparse_softmax_cross_entropy - оптимизатором является tf.train.GradientDescentOptimizer - Скриншот взят из TensorBoard (ось Y: точность, ось X: шаги)- под темной синей основной линией также видна прозрачная синяя линия.Яркие - реальные данные, темные - немного сглаженные данные- У меня 4250 изображений, разделенных на 6 ярлыков- Я использую 10% данных для набора проверки и 10% для набора испытаний- есть метка «другое», где агрегируются несколько «типов данных»- Может быть, важные метрики из набора тестов будут (у меня их нет для набора проверки):- 5 ярлыков имеют 99% + f1-балл, при поддержке 50-100- у «другого» ярлыка 88% f1 при поддержке только 12- Я считаю, что больше не нужны подробности, но если они есть, пожалуйста, спросите

Graphs

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...