К счастью, нет необходимости в грубой силе :).Чтобы получить взаимосвязь между R^2
и стандартным отклонением остатков, проще всего начать с определения R^2
:
R^2 = SSR / SST (1)
, где SSR
- это суммы квадратоврегрессия, т. е. (sum((y'-mean(y))^2)
, где y'
- значения на линии регрессии, а SST - общая сумма квадратов, т. е. sum((y - mean(y))^2)
, где y
- наблюдения.Таким образом, R^2
- это доля между общей суммой дисперсии и суммой дисперсии, объясненной регрессионной моделью (или линией).Для нашей цели нам нужно повторно выразить SSR
как SST - SSE
, где SSE
- суммы квадратов между линией регрессии и наблюдениями.SSE
- дисперсия, которая не объясняется регрессионной моделью.Перезапись (1):
R^2 = (SST - SSE) / SST = 1 - SSE / SST
выражение для SSE
:
SSE = (1 - R^2) SST
Если мы заметим, что для вычисления сумм квадратов в дисперсию нам нужно разделить на N-1
становится:
VAR_E = (1 - R^2) VAR_T
для получения стандартного отклонения от остатков:
SD_E = sqrt((1 - R^2) VAR_T)
и извлечения VAR из скобок:
SD_E = sqrt(1 - R^2) SD_T
Так что вам нужноR^2
и общее стандартное отклонение набора данных.Чтобы убедиться в этом, проверьте любую книгу вводной статистики.