Контрастное кодирование с использованием регрессии logisti c - PullRequest
0 голосов
/ 24 марта 2020

Я хочу сделать glm, family=binomial(link='logit') с contr.sum контрастным кодированием, потому что я хочу сравнить каждый уровень категориальных предикторов с большим mean. Я использовал этот вид контрастного кодирования в линейном , но теперь я также хочу использовать его для регрессии logisti c.

Однако я не совсем понимаю, что делает код, потому что в регрессиях logisti c нет никакого среднего значения, только подсчет количества раз, когда уровень = 1 происходит в (зависимой переменной) 2 группы. Так, например, как я должен интерпретировать следующий первый уровень manufacturer?

data('mpg')
mpg = mpg %>% mutate(year = as.factor(year), manufacturer = as.factor(manufacturer))

mpg_glm = glm(year ~ manufacturer, data = mpg, family=binomial(link='logit'), contrasts = list(manufacturer = contr.sum))
summary(mpg_glm)
Coefficients:
               Estimate Std. Error z value Pr(>|z|)
(Intercept)     0.01203    0.18065   0.067    0.947
manufacturer1  -0.01203    0.47458  -0.025    0.980
manufacturer2   0.52697    0.47819   1.102    0.270
manufacturer3   0.25990    0.35787   0.726    0.468
manufacturer4  -0.41750    0.42081  -0.992    0.321
manufacturer5  -0.23517    0.65010  -0.362    0.718
manufacturer6   0.27565    0.53424   0.516    0.606
manufacturer7   1.08658    0.78129   1.391    0.164
manufacturer8  -0.01203    0.94832  -0.013    0.990
manufacturer9  -0.70518    1.15440  -0.611    0.541
manufacturer10 -0.01203    0.94832  -0.013    0.990
manufacturer11  0.14212    0.54853   0.259    0.796
manufacturer12 -0.41750    0.86883  -0.481    0.631
manufacturer13  0.27565    0.53424   0.516    0.606
manufacturer14 -0.36871    0.37131  -0.993    0.321

Или, может быть, у кого-то есть источник / сайт, где я могу найти эту конкретную c информацию (я пытался найдите что-нибудь об этом, но речь идет либо о регрессии logisti c с нормальными контрастами, либо о контрастном кодировании в линейном glm. Я не нашел веб-сайт, где эти 2 предмета совместно объясняются).

Заранее большое спасибо !

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...