Колонки, недоступные для обучения модели лассо с использованием каретки - PullRequest
0 голосов
/ 04 сентября 2018

Я получаю странную ошибку

Error in `[.data.frame`(data, , lvls[1]) : undefined columns selected

сообщение, когда я использую каретку для обучения модели glmnet. Я использовал в основном тот же код и те же предикторы для порядковой модели (только с другим фактором y тогда), и он работал нормально. На вычисления потребовалось 400 часов, поэтому я не могу показать это здесь).

#Source a small subset of data
source("https://gist.githubusercontent.com/FredrikKarlssonSpeech/ebd9fccf1de6789a3f529cafc496a90c/raw/efc130e41c7d01d972d1c69e59bf8f5f5fea58fa/voice.R")
trainIndex <- createDataPartition(notna$RC, p = .75, 
                                  list = FALSE, 
                                  times = 1)


training <- notna[ trainIndex[,1],] %>%
  select(RC,FCoM_envel:ATrPS_freq,`Jitter->F0_abs_dif`:RPDE)
testing  <- notna[-trainIndex[,1],] %>%
  select(RC,FCoM_envel:ATrPS_freq,`Jitter->F0_abs_dif`:RPDE)

fitControl <- trainControl(## 10-fold CV
  method = "CV",
  number = 10,
  allowParallel=TRUE,
  savePredictions="final",
  summaryFunction=twoClassSummary)

vtCVFit <- train(x=training[-1],y=training[,"RC"], 
                  method = "glmnet", 
                  trControl = fitControl,
                  preProcess=c("center", "scale"),
                  metric="Kappa"
)

Я не могу найти что-то явно не так с данными. Нет NA

table(is.na(training))

FALSE 
43166

и не понимаю, почему он пытается индексировать вне числа столбцов.

Есть предложения?

Ответы [ 2 ]

0 голосов
/ 12 сентября 2018

Вы должны удалить summaryFunction = twoClassSummary в вашем trainControl (). У меня это работает.

fitControl <- trainControl(## 10-fold CV
 method = "CV",
 number = 10,
 allowParallel=TRUE,
 savePredictions="final")

vtCVFit <- train(x=training[-1],y=training[,"RC"], 
method = "glmnet", 
 trControl = fitControl,
preProcess=c("center", "scale"),
metric="Kappa")

 print(vtCVFit)

#glmnet 

#113 samples
#381 predictors
#  2 classes: 'NVT', 'VT' 

#Pre-processing: centered (381), scaled (381) 
#Resampling: Bootstrapped (25 reps) 
#Summary of sample sizes: 113, 113, 113, 113, 113, 113, ... 
#Resampling results across tuning parameters:

#  alpha  lambda      Accuracy   Kappa    
#  0.10   0.01113752  0.5778182  0.1428393
#  0.10   0.03521993  0.5778182  0.1428393
#  0.10   0.11137520  0.5778182  0.1428393
#  0.55   0.01113752  0.5778182  0.1428393
#  0.55   0.03521993  0.5748248  0.1407333
#  0.55   0.11137520  0.5749980  0.1136131
#  1.00   0.01113752  0.5815391  0.1531280
#  1.00   0.03521993  0.5800217  0.1361240
#  1.00   0.11137520  0.5939621  0.1158007

#Kappa was used to select the optimal model using the largest value.
#The final values used for the model were alpha = 1 and lambda = 0.01113752.
0 голосов
/ 04 сентября 2018

Измените ваши коэффициенты на символы с помощью следующего кода и посмотрите, работает ли он:

      training <- data.frame(lapply(training , as.character), stringsAsFactors=FALSE)

Я бы оставил это предложение в качестве комментария, но я не смог этого сделать (поскольку у меня менее 50 репутаций!)

...