Параметр Xgboost scale_pos_weight для обучения с учетом затрат - PullRequest
0 голосов
/ 09 июля 2020

Я использую XGboost для классификации в Python в очень несбалансированном сценарии. Я знаю, что, согласно документации, я могу установить scale_pos_weight для обработки дисбаланса, используя в качестве практического правила следующую формулу: positive cases/negative cases.

Я хотел бы знать, есть ли правило для обработки затратного обучения . Например, я знаю, что неправильная классификация положительных случаев имеет очень большое влияние (скажем, 100 долларов) на ошибку в отрицательном классе (например, 10 долларов).

Как правильно установить scale_pos_weight в этом сценарии?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...