Я тренирую xgboost, используя следующий набор параметров
library(xgboost)
library(pdp)
default_param <- list(
objective = "reg:linear",
booster = "gbtree",
eta = 0.01,
gamma = 1,
max_depth = 2,
min_child_weight = 1,
subsample = 0.7,
colsample_bytree = 1)
xgb_mod <- xgb.train(data = dtrain, params = default_param, nrounds = 1E5,
watchlist = list(train = dtrain, eval = dval),
monotone_constraints = monotoneVar,
early_stopping_rounds = 2000,
verbose = 0)
На приведенном ниже графике показана частичная зависимость одной переменной (ирригация) от моего ответа (урожайность не учитывается). Хотя я ожидаю, что урожайность увеличится до go, функция, которую устанавливает xgboost, является скорее пошаговой функцией. Какие параметры мне нужно настроить, чтобы сделать эту функцию более плавной?