У меня возникают проблемы с пониманием различий между результатами, полученными от lmer () и aov (), с моделью, которая имеет вложенный фактор случайных эффектов и подвыборку.
Для этих данных график вложен в стим.Я не понимаю, почему, когда я указываю график, который будет вложен в стим, результаты aov () не совпадают с результатами lmer () для вложенного фактора;F-статистика одинакова, но сумма квадратов отличается.Когда я рассматриваю заговор как строго случайный эффект (не вложенный), я получаю согласованные результаты от aov и lmer.Но если я сделаю это случайным вложенным эффектом, то результаты будут разными, и я не понимаю, почему или как мне следует указывать модель по-другому.
Вот мой код:
stim = as.factor(c(rep("S1",8), rep("S2", 8), rep("S3", 8), rep("S4", 8)))
plot = as.factor(rep(c("1", "1", "2", "2", "3", "3", "4", "4"), 4))
rootwt =
c(3.3, 3.5, 3.5, 3.0, 3.4, 3.1, 3.3, 2.9,
3.7, 4.0, 3.5, 4.0, 3.4, 3.8, 3.4, 3.7,
3.8, 4.0, 3.6, 3.8, 3.3, 3.4, 3.6, 3.7,
4.3, 4.4, 3.8, 4.1, 3.9, 4.2, 3.7, 4.0)
model.lmer = lmer(rootwt ~ 1 + stim + (1|plot))
#summary(model.lmer)
anova(model.lmer)
Analysis of Variance Table
Df Sum Sq Mean Sq F value
stim 3 2.57 0.856 21.8
model.aov = aov(rootwt ~ stim + Error(plot))
summary(model.aov)
Error: plot
Df Sum Sq Mean Sq F value Pr(>F)
Residuals 3 0.566 0.189
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
stim 3 2.568 0.856 21.8 3.8e-07 ***
Residuals 25 0.983 0.039
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
model.lmer = lmer(rootwt ~ 1 + stim + (1|stim:plot))
anova(model.lmer)
Analysis of Variance Table
Df Sum Sq Mean Sq F value
stim 3 1.83 0.611 12.9
model.aov = aov(rootwt ~ stim + Error(plot:stim))
# The following model is equivalent
# model.aov = aov(rootwt ~ Error(stim/plot))
summary(model.aov)
Error() model is singular
Error: plot:stim
Df Sum Sq Mean Sq F value Pr(>F)
stim 3 2.568 0.856 12.9 0.00045 ***
Residuals 12 0.794 0.066
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
Residuals 16 0.755 0.0472