У меня есть следующие вопросы относительно GridSearchCV
в sklearn. Я пытался, но не мог найти четких ответов. Ниже приведено исправление кода с использованием -
dep = df2['responder_flag']
indep = df2.drop(df2.columns[[0,85]], axis = 1)
X_train, X_test, y_train, y_test = train_test_split(indep, dep,test_size=0.25, random_state = 23)
train = xgb.XGBClassifier(objective='binary:logistic')
param_grid = {'max_depth': [4,5], 'n_estimators': [500], 'learning_rate': [0.02,0.01]}
grid = GridSearchCV(train, param_grid,cv=5, scoring='roc_auc')
grid.fit(X_train, y_train)
Is cross_validation
, т.е. параметр cv в GridSearchCV
эквивалентен Kfold
или другим методам CV, явно примененным с использованием cross_validation_score
и другие подобные функции при обучении данных?
Могу ли я использовать GridsearchCV
для перекрестной проверки? скажем, если я не предоставлю список с несколькими параметрами, будет ли он равен технике перекрестной проверки?
После выполнения оператора grid.fit(X_train, y_train)
обучает ли модель наилучшим параметрам? определены и могут быть использованы для прогнозирования модели напрямую, или мне нужно будет определить другой оценщик с помощью grid.best_params_
, затем обучить и использовать его для прогнозирования?
Извинения, если на них дан ответ раньше.