У меня есть обучающая модель xgb, которая предоставляет мне точно такой же mlogloss для обучающих и тестовых данных . Прогнозируемая функция является двоичной (предложение принято: да, нет). Не могли бы вы указать мне правильное направление, чтобы объяснить или исправить эту аномалию? спасибо!
Код
set.seed(1234)
ind<-sample(2, nrow(stream_payment_us), replace = T, prob = c(0.7, 0.3)) #crete two samples
train<-stream_payment_us[ind==1,]
test<-stream_payment_us[ind==2,]
trainm<-sparse.model.matrix(offr_acpted ~ .-1, data = train)
train_label<-train[,"offr_acpted"]
train_matrix<-xgb.DMatrix(data = as.matrix(trainm), label = train_label)
testm<-sparse.model.matrix(offr_acpted ~ .-1, data = test)
test_label<-test[,"offr_acpted"]
test_matrix<-xgb.DMatrix(data = as.matrix(testm), label = test_label)
nc<-length(unique(train_label)) #2 classes, "yes" and "no" converted to "1", "0"
xgb_params<-list("objective" = "multi:softprob",
"eval_metric" = "mlogloss",
"num_class" = nc)
watchlist<-list(train = train_matrix, test = test_matrix)
bst_model<-xgb.train(params = xgb_params,
data = train_matrix,
nrounds = 20,
watchlist = watchlist,
eta = 0.3)
Вывод
[1] train-mlogloss:0.437501 test-mlogloss:0.437502
[2] train-mlogloss:0.296342 test-mlogloss:0.296284
[3] train-mlogloss:0.207304 test-mlogloss:0.207318
[4] train-mlogloss:0.147797 test-mlogloss:0.147791
[5] train-mlogloss:0.106603 test-mlogloss:0.106615
[6] train-mlogloss:0.077508 test-mlogloss:0.077495
[7] train-mlogloss:0.056643 test-mlogloss:0.056639
[8] train-mlogloss:0.041553 test-mlogloss:0.041551
[9] train-mlogloss:0.030561 test-mlogloss:0.030565
[10] train-mlogloss:0.022528 test-mlogloss:0.022528
[11] train-mlogloss:0.016627 test-mlogloss:0.016629
[12] train-mlogloss:0.012288 test-mlogloss:0.012287
[13] train-mlogloss:0.009086 test-mlogloss:0.009086
[14] train-mlogloss:0.006725 test-mlogloss:0.006724
[15] train-mlogloss:0.004980 test-mlogloss:0.004979
[16] train-mlogloss:0.003688 test-mlogloss:0.003689
[17] train-mlogloss:0.002735 test-mlogloss:0.002735
[18] train-mlogloss:0.002028 test-mlogloss:0.002028
[19] train-mlogloss:0.001505 test-mlogloss:0.001505
[20] train-mlogloss:0.001118 test-mlogloss:0.001118