В чем разница между использованием магистральной архитектуры и трансферным обучением? - PullRequest
2 голосов
/ 29 января 2020

Привет, я супер новичок в этой области (глубокое обучение, компьютерное зрение), поэтому этот вопрос может показаться глупым.

В этой ссылке (https://github.com/GeorgeSeif/Semantic-Segmentation-Suite) есть предварительно обученные Модели (например, ResNet101) называются интерфейсными моделями. И они используются для Feature Extractor. Я обнаружил, что эти модели обычно называются магистральными моделями / архитектурами. И ссылка говорит, что некоторые из основных моделей (например, DeepLabV3, PS PNet) полагаются на предварительно обученный Re sNet.
Кроме того, Transfer Learning должен взять модель, обученную на большом наборе данных, и передать свои знания меньший набор данных, верно?

Тогда мой вопрос:
1.Подходят ли модели, основанные на предварительно обученном Re sNet, к обучению в основном?
2.Если я использую предварительно обученную сеть как ResNet101 в качестве базовой архитектуры основной модели (например, U- Net, Se gNet) для сегментации изображений, это рассматривается как трансферное обучение?

Извините за мой плохой английский sh, и я бы очень ценю, если вы ответите на этот квест. Спасибо.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...