Я хочу сравнить модели y ~ .
и log(y) ~ .
, скорректированные с помощью cv.glmnet
, однако после применения преобразования журнала к модели ошибка прогнозирования вычисляется с помощью predicted(log(y)) - log(y)
.
Если мы вызываем z = log(y)
, я хочу каким-то образом использовать мою ошибку перекрестной проверки, используя exp(predicted(z)) - exp(z)
в качестве термина ошибки, вместо непосредственного расчета MSE на z
. Моя цель состоит в том, чтобы сравнить, лучше ли подгонка glmnet
с преобразованными логарифмическими откликами, чем использование исходных данных, но средняя ошибка перекрестной проверки, создаваемая обеими моделями, не сопоставима с настройками по умолчанию. Есть ли способ, которым я могу что-то преобразовать и сделать их сопоставимыми?