Как Gradient Boosted Trees вычисляют ошибки в классификации? - PullRequest
0 голосов
/ 03 февраля 2019

Я понимаю, как повышение градиента работает для регрессии, когда мы строим следующую модель на остаточной ошибке предыдущей модели - если мы используем, например, линейную регрессию, то это будет остаточная ошибка в качестве цели следующей модели, а затем суммирует всемодели в конце, чтобы получить сильный наклон

Но как это сделать в деревьях классификации с градиентным усилением?Допустим, у нас есть бинарная классификационная модель с результатом 0/1 - какова остаточная ошибка для следующей модели для обучения?И как он рассчитывается, потому что он не будет y минус y, как в случае линейной регрессии.

Я действительно застрял на этом!Ошибка одного бинарного классификационного дерева - это те, которые оно неправильно классифицирует - так является ли цель для следующей модели только ошибочно классифицированными точками?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...