Я не совсем уверен, что был твой вопрос. xgb.XGBMClassifier.fit()
под капотом вызывает xgb.train()
, поэтому нам нужно сопоставить нам аргументы соответствующих функций.
Если вас интересует, как реализовать обучение, которое вы имеете в виду, тогда вы можете сделать
clf = xgb.XGBClassifier(**params)
clf.fit(X, y, xgb_model=your_model)
См. Документацию здесь . На каждой итерации вы должны будете сохранять бустер, используя что-то вроде clf.get_booster().save_model(xxx)
.
PS Я надеюсь, что вы будете учиться в мини-пакетах, то есть порциями, а не буквально построчно, т.е. пример за примером, поскольку это приведет к падению производительности из-за записи / чтения модели каждый раз