Почему существует разница в p-значении для одной и той же независимой переменной как в простой, так и в множественной регрессии в R - PullRequest
0 голосов
/ 12 июля 2020

Посмотрите на фрагмент кода, написанный на R

  1. для множественной регрессии:

ml3 <- lm(runs ~ hits+bat_avg+strikeouts+stolen_bases+wins, data = mlb11 )

вывод:

Coefficients:
               Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -852.96622  306.32911  -2.784 0.010293 *  
hits            0.81739    0.53596   1.525 0.140305    
bat_avg      -303.45277 3780.14458  -0.080 0.936684    
strikeouts      0.14990    0.08162   1.837 0.078696 .  
stolen_bases    0.46269    0.22899   2.021 0.054614 .  
wins            3.08033    0.67520   4.562 0.000126 ***
для простой регрессии: ml4 <- lm(runs ~ hits, mlb11)

Вывод:

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) -375.5600   151.1806  -2.484   0.0192 *  
hits           0.7589     0.1071   7.085   1.04e-07 ***

Я сомневаюсь, что независимая переменная "hits" коррелирует с зависимой переменной "run" или не? Поскольку в переменной множественной регрессии «совпадения» имеют значение p = 0,140305 (уровень значимости> 0,05), тогда как в простой регрессии значение p = 1,04e-07 (уровень значимости <0,05) </p>

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...