В общем, при выполнении регрессии мы нормализуем данные , подаваемые в модель.Это улучшает предсказания и позволяет избежать фактического взрыва градиентов.
См. здесь для получения дополнительной информации.
Вы можете выполнить нормализацию простым способом, используя
x_new = x - x.min() / ( x.max() - x.min() )
Где x
- это выборка из набора данных, x.min()
возвращает минимальное значение из набора данных, а x.max()
возвращает максимальное значение из данных.x_new
- нормализованное значение от 0 до 1.
Следовательно, вы получаете значения, которые принадлежат интервалу [ 0 , 1 ]
.
Кроме того, мы получаем меньшие значения для функций потерь, таких как MAE и MSE.Градиенты не взрываются или имеют огромные значения.Обучение проходит гладко.
Совет:
Также читайте о стандартизации данных. Стандартизация против нормализации может быть отличным чтением.Может быть, вы можете прочитать это .