Я понимаю, как повышение градиента работает для регрессии, когда мы строим следующую модель на остаточной ошибке предыдущей модели - если мы используем, например, линейную регрессию, то это будет остаточная ошибка в качестве цели следующей модели, а затем суммирует всемодели в конце, чтобы получить сильный наклон
Но как это сделать в деревьях классификации с градиентным усилением?Допустим, у нас есть бинарная классификационная модель с результатом 0/1 - какова остаточная ошибка для следующей модели для обучения?И как он рассчитывается, потому что он не будет y минус y, как в случае линейной регрессии.
Я действительно застрял на этом!Ошибка одного бинарного классификационного дерева - это те, которые оно неправильно классифицирует - так является ли цель для следующей модели только ошибочно классифицированными точками?