Я использую очень простую модель LightGBM, гиперпараметры следующие. Я пытаюсь построить классификатор, но не уверен, что вывод модели правильный или нет.
params = {
'boosting_type': 'gbdt',
'objective': 'binary',
'metric': {'l2', 'l1'},
'num_leaves': 31,
'learning_rate': 0.05,
'feature_fraction': 0.9,
'bagging_fraction': 0.8,
'bagging_freq': 5,
'verbose': 0
}
gbm = lgb.train(params,
lgb_train,
num_boost_round=100,
valid_sets=lgb_eval,
early_stopping_rounds=5)
Кажется, что модель строится, но результат, который я получаю, не является вероятностью. Вывод выглядит примерно так:
0.00221713, 0.00444936, 0.00088252, 0.00287112, 0.0199352 ,
0.01466104, 0.000574 , 0.00352522, 0.00374068, 0.00110412
Теперь максимальное значение здесь составляет 0,07459. Как вывести фактические вероятности из этой модели.