Проблема:
Требуются знания более опытного человека в отношении интерпретации направленного обратного распространения в случае чрезмерной подгонки.
Ситуация:
Я обучил две модели с Pytorch: s "эль xnet", одну с предтренированным = True и одну с предтренированным = False.
Результаты:
Модель с предварительной подготовкой
Модель без предварительной подготовки
Мой взгляд:
Затем я применил метод Grad-Cam к результатам. Моя интерпретация состоит в том, что предварительно обученный не слишком приспособлен, он идентифицирует объект и обеспечивает хорошие формы. В то время как не прошедший предварительную подготовку идентифицирует объект, но просмотр градиентов указывает на чрезмерную подгонку, поскольку это всего лишь сплайс sh крошечных пикселей в области объекта. Здесь не видно никаких реальных форм.
Я прав, или здесь есть лучшее мнение? (Спасибо за ваше время.)