Насколько я понимаю, кросс-энтропия измеряет размер ошибки между реальными и прогнозными метками, как возможно, что ошибка увеличилась, но точность также увеличилась?
Я думаю, что этоэто общий вопрос, но вот более подробно об обучении:- модель переподготовки из TensorFlow Hub с retrain.py - Функция потерь tf.losses.sparse_softmax_cross_entropy - оптимизатором является tf.train.GradientDescentOptimizer - Скриншот взят из TensorBoard (ось Y: точность, ось X: шаги)- под темной синей основной линией также видна прозрачная синяя линия.Яркие - реальные данные, темные - немного сглаженные данные- У меня 4250 изображений, разделенных на 6 ярлыков- Я использую 10% данных для набора проверки и 10% для набора испытаний- есть метка «другое», где агрегируются несколько «типов данных»- Может быть, важные метрики из набора тестов будут (у меня их нет для набора проверки):- 5 ярлыков имеют 99% + f1-балл, при поддержке 50-100- у «другого» ярлыка 88% f1 при поддержке только 12- Я считаю, что больше не нужны подробности, но если они есть, пожалуйста, спросите