Я думаю, что было бы глупо полагать, что оценка Excel превышает оценку R. Недостатки Excel в области регрессии являются давними и хорошо документированы:
nls(Mass_Ind_CS ~a*Drift_Time^b , dat, start=list(a=100, b=1))
#---------------------
Nonlinear regression model
model: Mass_Ind_CS ~ a * Drift_Time^b
data: dat
a b
227.0176 0.7828
residual sum-of-squares: 10224
Number of iterations to convergence: 5
Achieved convergence tolerance: 3.617e-06
#---------------------
plot(dat, xlim=range(dat$Drift_Time), ylim=range(dat$Mass_Ind_CS) )
par(new=T)
curve(215.47*x^0.812, from=min(dat$Drift_Time),
to=max(dat$Drift_Time),
ylim=range(dat$Mass_Ind_CS) )
par(new=T)
curve(227.0176*x^0.7828, from=min(dat$Drift_Time),
to=max(dat$Drift_Time),
ylim=range(dat$Mass_Ind_CS),col="red")
Оценка R показана красным цветом. Это показывает, что вы ошибаетесь в том, чтобы сосредоточиться на оценке параметра, не глядя на прогнозы в диапазоне значений x =. Не существует реальной R-sq для оценки для отдельных нелинейных моделей, хотя вы можете сделать сравнение моделей с anova()
. Вы можете найти причины для автора nls (Дуглас Бейтс) , а не , включая их, потому что это практически FAQ в списке рассылки r-help.
![enter image description here](https://i.stack.imgur.com/yGsd8.png)