Я использую sklearn.ensemble.RandomForestClassifier для построения модели классификации. Данные содержат два сбалансированных класса. пример:
target = [0,1,1,1,0,0,1,0] #1 & 0 appear four times each
В реальном случае использования модели неправильный прогноз «1» обходится дороже, чем неправильный прогноз 0. Чтобы решить эту проблему, могу ли я использовать параметр class_weight для принудительного вызовамодель для наказания за неправильные прогнозы еще 1?
Когда я тестирую параметр (class_weight={0:2,1:1}
), я получаю желаемый эффект, но я не уверен, считается ли это правильным способом решения этой проблемы. Изменение порога вероятности для прогноза «1» - это еще один подход, который я рассматривал.