Как получить дисперсию остатков после подгонки линейной регрессии с помощью склеарна - PullRequest
0 голосов
/ 24 октября 2018

Я нуб в Python.Я использовал sklearn, чтобы соответствовать линейной регрессии:

lm = LinearRegression()
lm.fit(x, y)

Как получить дисперсию остатков?

1 Ответ

0 голосов
/ 24 октября 2018

Давайте определим

y_true = np.array([3, -0.5, 2, 7])
y_pred = np.array([2.5, 0.0, 2, 8])

Средняя абсолютная ошибка может быть определена как

np.mean(np.abs(y_true - y_pred)) # 0.5 same as sklearn.metrics.mean_absolute_error

Дисперсия абсолютной ошибки равна

np.var(np.abs(y_true - y_pred)) # 0.125

И дисперсияошибка

np.var((y_true - y_pred)) # 0.3125

Теперь, как реализовать это с scikit-learn?

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
# X and target data and train test split
boston = datasets.load_boston()
X, y = boston.data, boston.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)
# initialize and fit to your train data and predict on test data
clf = LinearRegression()
clf.fit(X_train, y_train)
preds = clf.predict(X_test)
# evaluate
mean_absolute_error(y_test, preds) == np.mean(np.abs(y_test - preds))
# get the variance of (absolute) residuals
np.var(np.abs(y_test - preds))
np.var((y_test - preds))
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...