Как работает регрессия опорных векторов? - PullRequest
0 голосов
/ 26 августа 2018

Я пытаюсь понять SVR модель.
Для этого я посмотрел на SVM, и для меня это довольно понятно. Но нет особых объяснений по поводу SVR. Первый вопрос: почему она называется регрессией опорных векторов или как мы используем vectors для прогнозирования числовых значений?
Также я не понимаю некоторые параметры, такие как epsilon и gamma. Как они влияют на прогнозируемый результат?

1 Ответ

0 голосов
/ 26 августа 2018

SVM изучает так называемую функцию принятия решения из ваших функций, так что функции из вашего положительного класса дают положительные действительные числа, а функции из отрицательного класса производят отрицательные числа (по крайней мере, большую часть времени,в зависимости от ваших данных).

Для двух функций вы можете визуализировать это в 2D плоскости.Функция назначает реальное значение каждой точке на плоскости, это значение может быть изображено как цвет. Этот график показывает значения в виде различных синих цветов.

Значения признаков, приводящие к нулю, образуют так называемую границу решения .

Эта функция сама по себеимеет два вида параметров:

  • зависимые от ядра параметры.В вашем случае для радиальных базисных функций это параметры epsilon и gamma, которые вы устанавливаете перед обучением.
  • И так называемые опорные векторы, которые определяются во время обучения. опорные векторы - это просто параметры вашей решающей функции .

Обучение - это не что иное, как определение хороших опорных векторов (параметров!).

В этом 2d пример видео цвета показывают не фактическое значение функции, а только знак.Вы можете видеть, как gamma влияет на плавность решающей функции.

Чтобы ответить на ваш вопрос:

SVR строит такую ​​функцию, но с другой целью.Функция не пытается присвоить положительные результаты вашим положительным примерам, а отрицательные результаты - отрицательным.

Вместо этого функция построена для аппроксимации заданных числовых результатов.

...