Дисперсия прогноза двухточечного изменения после линейной регрессии - PullRequest
0 голосов
/ 02 июля 2019

Это может быть абсолютно простой вопрос, так что извините, если это так.

Допустим, у меня есть следующий регрессионный вывод

Call:
lm(formula = y ~ x1 + x2, data = fake)

Residuals:
    Min      1Q  Median      3Q     Max 
-2.9434 -0.6851  0.0231  0.6744  3.6313 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) -0.130431   0.056489  -2.309   0.0211 *  
x1           0.014597   0.003454   4.226 2.59e-05 ***
x2          -0.025518   0.062429  -0.409   0.6828    
---

Теперь я хочу предсказать y из новых данных. Меня особенно интересует ошибка , связанная с моим прогнозом.

Допустим, одна строка в новом наблюдаемом наборе данных имеет

x1 = 2
x2 = 0

Ожидаемое значение для y_pred равно

y_pred = -0.1304 + 2 * 0.01460

... но каково стандартное отклонение этого прогноза? Могу ли я рассчитать 95% CI по этому прогнозу?

И, в частности, я бы выяснил это, применяя стандарт. ошибка beta_1 дважды, один раз для каждого увеличения единицы, или я применяю его только один раз?

ИЗМЕНИТЬ, чтобы добавить: у меня нет исходных данных, только оценка коэффициента и SE ... поэтому вычисление с использованием матричной алгебры будет невозможно.

...