Почему вывод идентификатора предварительно активированного блока ResNet (с уменьшением размерности) берется из начального уровня ReLU? - PullRequest
0 голосов
/ 25 октября 2019

Итак, я просматривал реализации Keras предварительно активированного блока ResNet и обнаружил кое-что интересное. В блоках, которые отвечают за уменьшение размерности, вход в путь идентификации блока берется из уровня предварительной активации ReLU первого уровня CONV, а не из входа в остаточный блок, , как показано в этомfigure

Разве этот тип соединения не будет нарушать парадигму ярлыков «идентичность»? Здесь мы добавляем нелинейность на вход блока перед последней операцией добавления в конце слоя. Так почему же используется такой подход?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...