Я использовал 100000 образцов для обучения общей модели в Керасе и достижения хороших результатов.Затем, для конкретного образца, я хочу использовать обученные веса в качестве инициализации и продолжать оптимизировать веса для дальнейшей оптимизации потери конкретного образца.
Однако проблема возникла.Сначала я легко загружаю тренировочный вес с помощью API keras, затем я оцениваю потерю одного конкретного образца, и эта потеря близка к потере валидации во время обучения модели.Я думаю, что это нормально.Однако, когда я использую тренировочный вес в качестве исходного и дополнительно оптимизирую вес для одного образца на model.fit()
, потеря действительно странная.Это намного выше результата оценки и постепенно стало нормальным после нескольких эпох.
Мне кажется странным, что при одинаковой простоте и загрузке одного и того же веса модели, почему model.fit()
и model.evaluate()
дают разные результаты.Я использовал слои нормализации партии в моей модели, и мне интересно, что это может быть причиной.Результат model.evaluate()
кажется нормальным, поскольку он близок к тому, что я видел в наборе валидации ранее.
Так в чем же разница между подгонкой и оценкой?Как я могу решить это?