Я обучил новую сеть, используя EfficientNet для обнаружения объектов, вместо того, чтобы использовать исходный выходной слой EfficientNet, я изменил его на 5 плотных выходных данных ( 5 меток от исходного слоя ). в процессе обучения я заблокировал все слои и только обучил свой пользовательский выходной слой. Мне удалось добиться лучшего результата в моих пользовательских метках выходного слоя (в EfficientNet они достигли 84%, мне удалось получить в среднем точность 92%). хотел бы получить оригинальную метку 1000, а также мой собственный 5 выходной слой
TLDR
, что я пытаюсь достичь, это:
скажемУ меня есть 2 нейронные сети: A, B они оба содержат N-1 идентичных слоев и различный выходной слой
- A (выходной слой) dim составляет 5
- B (выходной слой) dim равен 1000
, поскольку они оба идентичны до тех пор, пока выходной слой не будет иметь одинаковый выходной сигнал до выходного слоя
Я хотел бы запустить модель Bзатем получите выходные данные выпадающего слоя, запустите эти выходные данные для выходного слоя модели A вместо того, чтобы снова запускать обе модели, возможно ли это, или я столкнулся с проблемой XY ? Как правильно создать нейронную сеть с 2 выходными слоями?
Я иллюстрировал проблему: