Я использую XGboost для классификации в Python в очень несбалансированном сценарии. Я знаю, что, согласно документации, я могу установить scale_pos_weight
для обработки дисбаланса, используя в качестве практического правила следующую формулу: positive cases/negative cases
.
Я хотел бы знать, есть ли правило для обработки затратного обучения . Например, я знаю, что неправильная классификация положительных случаев имеет очень большое влияние (скажем, 100 долларов) на ошибку в отрицательном классе (например, 10 долларов).
Как правильно установить scale_pos_weight
в этом сценарии?