Метод ремонта дает те же результаты, что и базовая обученная модель. Для экспериментальной части я использую 200 тыс. Строк в качестве данных о поездах и 700 тыс. Строк в качестве тестовых данных.
## LightGBM Base Model
lightGBM_clf = lgbm.train(params,lgbm.Dataset(x_train,label=y_train),
num_boost_round=500)
y_pred_wu = lightGBM_clf.predict(x_test)
auc_value = print_result(y_test, y_pred_wu,0) ## function returning auc_values; AUC output is 0.8130
Использование refit для тестовых данных и попытка сделать прогноз на тех же тестовых данных
estimator_refit_final = deepcopy(lightGBM_clf)
estimator_refit_final.refit(data=x_test, label=y_test)
y_pred_refit_final = estimator_refit_final.predict(x_test)
auc_value = print_result(y_test, y_pred_refit_final,0) ## AUC output is 0.8130
Но , Если я переучусь на тестовые данные, используя (init_model = lightGBM_clf); Он показывает ожидаемый выигрыш в AU C.
В чем разница между методом refit и init_model и почему метод refit не вносит никаких изменений в результаты.