У меня есть двоичная классификация модели XGBTree.Фрейм данных, используемый для обучения модели, содержит много независимых переменных (x), и я хочу оптимизировать один x, чтобы повысить вероятность того, что результат станет 1.
Интересно, как этого можно достичь?Я искал функцию оптимизации по умолчанию, но кажется, что она может решить только уравнение, но в модели XGBTree нет уравнения для ввода.Как и в случае с Гуроби, многие примеры, которые я видел, требуют уравнения.
Можно ли как-нибудь оптимизировать модель XGBTree?Если так, как я могу реализовать такой метод?Код, который я использовал для обучения XGBTree, выглядит следующим образом.
Спасибо.
xgb_grid<-expand.grid(
nrounds = 500,
max_depth = 5,
eta = c(0.04, 0.05, 0.06, 0.07, 0.08, 0.09, 0.1, 0.11, 0.12),
gamma = 0.3,
colsample_bytree = 0.25,
min_child_weight = 2,
subsample = 0.5
)
xgb <- train(y ~ ., # model specification
data = train, # train set used to build model
method = "xgbTree", # type of model you want to build
trControl = ctrl, # how you want to learn
tuneGrid = xgb_grid, # tune grid
metric = "ROC", # performance measure
verbose = TRUE
)
Несколько реальных примеров того, как этого можно достичь.