Я очень удивлен, что об этом никто не говорит: разница полиномиальной регрессии с помощью scikit learn и polyfit из numpy.
Сначала данные:
xdic={'X': {11: 300, 12: 170, 13: 288, 14: 360, 15: 319, 16: 330, 17: 520, 18: 345, 19: 399, 20: 479}}
ydic={'y': {11: 305000, 12: 270000, 13: 360000, 14: 370000, 15: 379000, 16: 405000, 17: 407500, 18: 450000, 19: 450000, 20: 485000}}
X=pd.DataFrame.from_dict(xdic)
y=pd.DataFrame.from_dict(ydic)
import numpy as np
X_seq = np.linspace(X.min(),X.max(),300).reshape(-1,1)
Затем давайте создадим модель с помощью scikit learn
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import make_pipeline
from sklearn.linear_model import LinearRegression
degree=9
polyreg=make_pipeline(PolynomialFeatures(degree),
LinearRegression())
polyreg.fit(X,y)
Затем вы можете создать график
plt.figure()
plt.scatter(X,y)
plt.plot(X_seq,polyreg.predict(X_seq),color="black")
plt.xlabel('X')
plt.ylabel('y')
plt.show()
А вот график
With numpy, it is quite different.
coefs = np.polyfit(X.values.flatten(), y.values.flatten(), 9)
X_seq = np.linspace(X.min(),X.max(),300)
plt.figure()
plt.plot(X_seq, np.polyval(coefs, X_seq), color="black")
plt.scatter(X,y)
plt.show()
With the plot we can see that the results are quite different.
введите описание изображения здесь
Может показаться, что это из-за неточности точки опоры ...