объяснение параметра потери для "sklearn.ensemble.GradientBoostingClassifier" - PullRequest
0 голосов
/ 29 ноября 2018

Я обучал модели повышения градиента, используя skdiarn GradientBoostingClassifier [sklearn.ensemble.GradientBoostingClassifier], когда столкнулся с параметром «loss».

Официальное объяснение, данное со страницы sklearn, ---

убыток: {'отклонение', 'экспоненциальный'}, необязательный (по умолчанию = 'отклонение')

функция потерь для оптимизации.«отклонение» относится к отклонению (= логистическая регрессия) для классификации с вероятностными результатами.В случае потери «экспоненциального» повышения градиента восстанавливается алгоритм AdaBoost.

sklearn.ensemble.GradientBoostingClassifier

Мой вопрос, согласно моему ограниченному пониманию, «отклонение»«Функция потерь используется для вероятностной классификации (например, вероятностные результаты Найва-Байеса, используемые для классификации).

Что происходит с« экспоненциальной »функцией потерь? ИЛИ Когда следует« экспоненциальный »можно использовать функцию потерь

Согласно странице sklearn.ensemble.AdaBoostClassifier sklearn.ensemble.AdaBoostClassifier

Для параметра «алгоритм» -

алгоритм: {'SAMME', 'SAMME.R'}, необязательный (по умолчанию = 'SAMME.R')

Если 'SAMME.R', то использовать алгоритм реального повышения SAMME.R.base_estimator должен поддерживать вычисление вероятностей класса.Если «SAMME», используйте алгоритм дискретного усиления SAMME.Алгоритм SAMME.R обычно сходится быстрее, чем SAMME, достигая более низкой ошибки теста с меньшим количеством повторений повышения.

Это означает, что «SAMME.R» (из AdaBoost) похож на «отклонение» от «Параметр потерь в GradientBoostingClassifier?

Правильно ли мое понимание или я что-то упускаю.

Спасибо!

...