Это что-то вроде хака, но поскольку подходы на основе регрессионного наказания предполагают, что все переменные масштабируются одинаково, сокращение шкала переменной-предиктора должна требовать большего значения параметра для характеристики того же самого величина эффекта и, следовательно, больший штраф, например
x2 <- scale(x)
x2[,1] <- x2[,1]/100
fit2 <- glmnet(x2,y,standardize=FALSE)
coef(fit2,s=0.01)
, показывают, что первая переменная была исключена. (Вы должны заставить glmnet
, а не для повторной стандартизации внутренних переменных; вы должны убедиться, что вы сами масштабировали предикторы ...)