У меня проблема с выбором модели, потому что я буду использовать gnls, и даже наш статистик не сможет мне здесь помочь. У меня есть 4 из них, одна стандартная модель и одна, использующая params
для указания моделей параметров для параметров в средней функции. Для обеих моделей существует версия с аргументом weights
для указания функции дисперсии для моделирования гетероскедастичности. Я настроил модель для описания моих данных
asym <- deriv(~a*exp(-b*x),
c("a", "b"), function(x, a, b){})
fit0 <- gnls(z.tendenz ~ asym(nutrients, a, b),
data = df,
start = c(a = 0.2, b = 0.3))
Оба коэффициента значимы, и его AI C равен -87.16. Вместо этого я читаю на R², вы можете использовать расчетное стандартное отклонение ошибок для нелинейных моделей, которое составляет 0,097. Для моделирования гомоскедастичности я использовал формулу:
fit0a <- update(fit0, weights = varPower(form = ~ nutrients))
Полученная модель также имеет существенные коэффициенты, ее стандартное отклонение ошибок составляет 0,147, а ее AI C составляет -88,12. anova
сказали, что они незначительно отличаются друг от друга (p = 0,0858).
Теперь у меня есть расширенная модель, использующая
fit3 <- gnls(z.tendenz ~ asym(nutrients, a, b),
params = list(a ~ growth,
b ~ competitors),
start = c(1,0,0,0),
data = df)
Ее AI C равен -87,96. и стандартное отклонение ошибок 0,095. Из 4 коэффициентов значим только a (перехват), остальные между 0,1 и 0,7. Последняя модель является обновленной версией модели 3.
fit3a <- update(fit3, weights = varPower(form = ~ nutrients))
Это имеет AI C -89,22 и стандартное отклонение ошибок 0,144, но, как и раньше, только a (Перехват) Важно отметить, что значение р (перехват) даже составляет 0,999.
Каковы мои критерии выбора модели GNLS? По AI C я бы go для fit3a, по значимости коэффициентов для fit0 или 0a и по стандартному отклонению ошибок для fit3. Есть ли что-то вроде ранжирования критериев принятия решений для GNLS и насколько важны p-значения коэффициентов? Я что-то здесь упускаю? Я добавляю
подгонок на случай, если это поможет.
Большое спасибо вперед!