Я оцениваю ту же логистическую регрессию (но с переменными в другом порядке), используя пакет glm в R. Все переменные являются двоичными (одна зависимая переменная, ко-переменная, один член взаимодействия). Но в зависимости от порядка переменных в модели, я получаю разные результаты. В частности, NA для стандартной ошибки для одной переменной, которую я использую в качестве члена взаимодействия только когда я группироваться стандартные ошибки. Я понятия не имею, почему это происходит.
Вот мой код:
mod1 <- glm(dv ~ cov + var1*var2,family binomial(link = "logit"),data = dat)
mod2 <- glm(dv ~ var1*var2 + cov,family = binomial(link = "logit"),data = dat)
stargazer(mod1,mod2)
Производит (отредактированный вывод, так что его легче читать):
cov & 0.300 & 0.300 \\
& (1.128) & (1.128) \\
var1 & $-$0.008 & $-$0.008 \\
& (2,543.188) & (2,543.188) \\
var2 & 19.828 & 19.828 \\
& (1,902.767) & (1,902.767) \\
var1:var2 & $-$0.569 & $-$0.569 \\
& (2,543.188) & (2,543.188) \\
Результаты те же, что и выше, но они отличаются, когда я объединяю стандартные ошибки:
stargazer(coeftest(mod1,vcov = cluster.vcov(mod1, dat$groupid)),coeftest(mod2,vcov = cluster.vcov(mod2, dat$groupid)))
Производит:
cov & 0.300 & 0.300 \\
& (1.073) & (1.073) \\
var1 & $-$0.008 & $-$0.008 \\
& (0.036) & NA \\
var2 & 19.828$^{***}$ & 19.828$^{***}$ \\
& (0.183) & (0.376) \\
var1:var2 & $-$0.569 & $-$0.569 \\
& (0.469) & (0.434) \\
Обратите внимание, что здесь стандартной ошибкой для var1
является NA. Я понятия не имею, что происходит. Любая помощь будет принята с благодарностью!