Как работает стохастический градиентный спуск в обучении Faster RCNN - PullRequest
0 голосов
/ 05 января 2019

В Tenosrflow Object Detection API вы можете выбрать различные предварительно обученные модели, такие как Faster RCNN, SSD. Затем вы можете указать размер пакета в файле конфигурации

Я знаю, что для Stochastic Gradient Descent вы последовательно питаете сеть пакетами со входа.

У меня мало вопросов.

  1. Как работает стохастический градиентный спуск в Faster RCNN? Учитывая, что сначала он имеет слой экстрактора объектов, а затем слой классификации.

    Я нашел это из https://wiki.tum.de/pages/viewpage.action?pageId=22578448

    Одним из больших улучшений, предоставляемых Fast R-CNN, является то, что он требует Преимущество обмена функциями во время обучения. В тайнах, стохаситц миниатчи с градиентным спуском (SGD) отбираются иерархически, сначала выборка N изображений, а затем выборка R / N RoI для каждого изображения.

    но я не совсем понимаю заявленный процесс. Может кто-нибудь объяснить это?

  2. , так как одно изображение может содержать несколько объектов, при подаче его в пакетном режиме оно изучает всю серию изображений, изображение по изображению или объект по объекту?

  3. Как SGD решает, какую партию кормить следующей?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...