почему градиент des cnet не отступает, чтобы избежать колебаний - PullRequest
0 голосов
/ 29 апреля 2020

Я выполняю оптимизацию с использованием градиентного спуска, но иногда она перепрыгивает через минимум, и функция стоимости увеличивается. Я добавил условие, что если значение функции стоимости увеличилось, то отступите и на этот раз уменьшите скорость обучения. Это работает очень хорошо. Почему я нигде не вижу этого в литературе? Я прочитал много литературы по оптимизации, пытаясь адаптировать скорость обучения, но они никогда не отступают и не изменяют свой шаг. Что-то не так с этим подходом?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...