Я обучал модели повышения градиента, используя skdiarn GradientBoostingClassifier [sklearn.ensemble.GradientBoostingClassifier], когда столкнулся с параметром «loss».
Официальное объяснение, данное со страницы sklearn, ---
убыток: {'отклонение', 'экспоненциальный'}, необязательный (по умолчанию = 'отклонение')
функция потерь для оптимизации.«отклонение» относится к отклонению (= логистическая регрессия) для классификации с вероятностными результатами.В случае потери «экспоненциального» повышения градиента восстанавливается алгоритм AdaBoost.
sklearn.ensemble.GradientBoostingClassifier
Мой вопрос, согласно моему ограниченному пониманию, «отклонение»«Функция потерь используется для вероятностной классификации (например, вероятностные результаты Найва-Байеса, используемые для классификации).
Что происходит с« экспоненциальной »функцией потерь? ИЛИ Когда следует« экспоненциальный »можно использовать функцию потерь
Согласно странице sklearn.ensemble.AdaBoostClassifier sklearn.ensemble.AdaBoostClassifier
Для параметра «алгоритм» -
алгоритм: {'SAMME', 'SAMME.R'}, необязательный (по умолчанию = 'SAMME.R')
Если 'SAMME.R', то использовать алгоритм реального повышения SAMME.R.base_estimator должен поддерживать вычисление вероятностей класса.Если «SAMME», используйте алгоритм дискретного усиления SAMME.Алгоритм SAMME.R обычно сходится быстрее, чем SAMME, достигая более низкой ошибки теста с меньшим количеством повторений повышения.
Это означает, что «SAMME.R» (из AdaBoost) похож на «отклонение» от «Параметр потерь в GradientBoostingClassifier?
Правильно ли мое понимание или я что-то упускаю.
Спасибо!