XGBoost - раунды повышения производительности - PullRequest
0 голосов
/ 17 октября 2019

Я использую Scikit-Learn API, XGBRegressor. Я пытаюсь сделать свою модель максимально подробной. Это параметры модели. Это работает на ядрах Kaggle. df_train и df_target - это панды данных.

model = xgb.XGBRegressor(
    n_estimators=2**8,
    max_depth=5,
    learning_rate=0.04,
    subsample=0.9,
    colsample_bytree=0.9,    
    objective='reg:squarederror',
    booster='gbtree',
    importance_type='weight',
    tree_method='gpu_hist',
    silent=False,    
    random_state=SEED
)

, и это параметры fit(). Я должен увидеть тренировку между бустерами, как в LightGBM. XGBoost обладает такой функциональностью?

model.fit(df_train, df_target, eval_metric='rmse', eval_set=[(df_train, df_target)], verbose=True)
...