Я использую Scikit-Learn API, XGBRegressor
. Я пытаюсь сделать свою модель максимально подробной. Это параметры модели. Это работает на ядрах Kaggle. df_train
и df_target
- это панды данных.
model = xgb.XGBRegressor(
n_estimators=2**8,
max_depth=5,
learning_rate=0.04,
subsample=0.9,
colsample_bytree=0.9,
objective='reg:squarederror',
booster='gbtree',
importance_type='weight',
tree_method='gpu_hist',
silent=False,
random_state=SEED
)
, и это параметры fit()
. Я должен увидеть тренировку между бустерами, как в LightGBM. XGBoost обладает такой функциональностью?
model.fit(df_train, df_target, eval_metric='rmse', eval_set=[(df_train, df_target)], verbose=True)