Разница между преобразованием функций и ядрами в SVM? - PullRequest
0 голосов
/ 10 июля 2020

Я пытаюсь понять разницу между преобразованием функций (например, что мы делаем в логистической c регрессии) и ядрами, которые мы используем в SVM. Оба достигают одного и того же, т. Е. Преобразования точек данных в другое пространство, так что существует гиперплоскость, которая может их разделять. Однако я узнал, что трюки с ядром SVM на самом деле не преобразуют точки данных в новое пространство, но делают это « неявно ». В то время как разработка функций фактически преобразует точки данных в новое пространство ' явно '. Итак, я запутался между явным преобразованием и неявным преобразованием. Я понимаю, что при явном преобразовании мы фактически конвертируем наши точки данных в новое пространство, а затем обучаем на них модель. Хотя в случае неявного преобразования ядра мы фактически не преобразуем наши точки данных в новое пространство, но мы просто добавляем трюк с ядром к функции потерь SVM (двойная форма), и поэтому функция потерь минимизирует потери на этом ядро (которое преобразовало точки данных в более высокое измерение «временно» ). Таким образом, технически мы «обучаем» модель только на наших исходных точках данных, но функция потерь использует уловку ядра, чтобы минимизировать потери. Пожалуйста, помогите мне прояснить мое понимание.

...