Оптимизатор Adam застрял на одной и той же величине потерь для разных сетевых архитектур - PullRequest
0 голосов
/ 07 июля 2019

Я пытаюсь создать модель нейронной сети, чтобы приблизить некоторые функции.Я использую Адам оптимизатор, чтобы минимизировать функцию потерь.Это не первый раз, когда я пытался это сделать - я раньше работал над аппроксимацией более простых функций, и мне никогда не приходилось настраивать что-либо для оптимизатора Адама.

Теперь, для этой конкретной проблемы, которую я имею, я попробовал 2различные настройки.Единственное отличие состоит в том, что одна установка имеет меньше точек для расчета потерь и многослойный персептрон с 1 меньшим скрытым слоем и меньшим количеством нейронов на слой.У другого больше очков для вычисления потерь и больше нейронов на слой.

Однако оба они все еще работают и застряли на одном и том же значении функции потерь, что я нахожу странным.Конечно, «скорость», с которой они достигли этого значения функции потерь, не одинакова, но, тем не менее, странно, что точки для расчета потерь различны, но значение потерь одинаково.Функция потери одинакова, кстати.

Я проверял свой код снова и снова - я не думаю, что что-то не так с моей функцией потери.Может ли быть так, что оптимизатор Адама застрял?Должен ли я просто уменьшить скорость обучения?ИЛИ мне тоже нужно настроить другие параметры?

Предложения приветствуются!

...