Градиентный спуск используется для оптимизации модели, то есть ее веса и смещения для минимизации потерь.Он пытается достичь минимумов функции потерь и в достаточной степени обобщить их модель.Оптимизирует модель на основе заданных ей гиперпараметров.Например, скорость обучения используется как
W = W - (learning_rate * градиент)
Здесь гиперпараметр скорости обучения влияет на W, которые являются весами.
- Для выбора лучшего значения гиперпараметра используются алгоритмы GridSearch и RandomSearch.Гиперпараметры постоянны во время обучения, но их необходимо точно настроить, чтобы модель сходилась с чем-то хорошим.
Градиентный спуск оптимизирует модель на основе гиперпараметров.Принимая во внимание, что для точной настройки гиперпараметров используются GridSearch и RandomSearch.
Градиентный спуск используется для оптимизации модели (весов и смещений). Алгоритмы тонкой настройки алгоритмов настройки, которые влияют на градиентный спуск,За этим можно следовать.
- Обучите модель по некоторым выбранным гиперпараметрам.
- Оцените модель на предмет ее потерь и точности.
- Выполните настройку гиперпараметрачтобы получить лучшие значения для гиперпараметров.
- Обучите модель заново с обновленными гиперпараметрами.
- Выполняйте эту процедуру, пока модель не достигнет значительной высокой точности и меньших потерь.