как инвертировать стационарность и повторно применить даты к данным для построения?
срк:
Я пытаюсь инвертировать стационарность и получить график прогнозирования, особенно для двух столбцов с именами «app_1» и «app_2» (оранжевые и красные линии ниже).
ДанныеЯ рисую из выглядит следующим образом:
print(u1.info())
u1.head()
<class 'pandas.core.frame.DataFrame'>
DatetimeIndex: 15011 entries, 2017-08-28 11:00:00 to 2018-01-31 19:30:00
Freq: 15T
Data columns (total 10 columns):
app_1 15011 non-null float64
app_2 15011 non-null float64
user 15011 non-null object
bar 15011 non-null float64
grocers 15011 non-null float64
home 15011 non-null float64
lunch 15011 non-null float64
park 15011 non-null float64
relatives 15011 non-null float64
work 15011 non-null float64
dtypes: float64(9), object(1)
memory usage: 1.3+ MB
app_1 app_2 user bar grocers home lunch park relatives work
date
2017-08-28 11:00:00 0.010000 0.0 user_1 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2017-08-28 11:15:00 0.010125 0.0 user_1 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2017-08-28 11:30:00 0.010250 0.0 user_1 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2017-08-28 11:45:00 0.010375 0.0 user_1 0.0 0.0 0.0 0.0 0.0 0.0 0.0
2017-08-28 12:00:00 0.010500 0.0 user_1 0.0 0.0 0.0 0.0 0.0 0.0 0.0
столбец местоположения представляет местоположение, в котором пользователь находится в данный момент времени - после первого «существенного изменения местоположения»событие, один и только один столбец будет 1 за один раз.
Я анализирую это с помощью VARIMAX - используя statsmodels VARMAX-версию AR.:
from statsmodels.tsa.statespace.varmax import VARMAX
import pandas as pd
import numpy as np
%matplotlib inline
import matplotlib
import matplotlib.pyplot as plt
from random import random
#...
columns = [ ' app_1', ' app_2', ' bar', ' grocers', ' home', ' lunch', ' work', ' park', ' relatives' ]
series = u1[columns]
# from: https://machinelearningmastery.com/make-predictions-time-series-forecasting-python/
# create a difference transform of the dataset
def difference(dataset):
diff = list()
for i in range(1, len(dataset)):
value = dataset[i] - dataset[i - 1]
diff.append(value)
return np.array(diff)
# Make a prediction give regression coefficients and lag obs
def predict(coef, history):
yhat = coef[0]
for i in range(1, len(coef)):
yhat += coef[i] * history[-i]
return yhat
X = pd.DataFrame()
for column in columns:
X[column] = difference(series[column].values)
size = (4*24)*54 # hoping
train, test = X[0:size], X[size:size+(14*4*24)]
train = train.loc[:, (train != train.iloc[0]).any()] # https://stackoverflow.com/questions/20209600/panda-dataframe-remove-constant-column
test = test.loc[:, (test != test.iloc[0]).any()] # https://stackoverflow.com/questions/20209600/panda-dataframe-remove-constant-column
#print(train.var(), X.info())
# train autoregression
model = VARMAX(train)
model_fit = model.fit(method='powell', disp=False)
#print(model_fit.mle_retvals)
##window = model_fit.k_ar
coef = model_fit.params
# walk forward over time steps in test
history = [train.iloc[i] for i in range(len(train))]
predictions = list()
for t in range(len(test)):
yhat = predict(coef, history)
obs = test.iloc[t]
predictions.append(yhat)
history.append(obs)
print(mean_squared_error(test, predictions))
0.5594208989876831
Это mean_squared_error от scikitlearnэто не ужасно (на самом деле это примерно середина трех образцов, показанных в документации).Это может означать, что данные являются прогнозными.Я хотел бы видеть это на графике.
# plot
plt.plot(test)
plt.plot(predictions, color='red')
plt.show()
Итак, часть того, что здесь происходит, заключается в том, что данные являются сезоннымитаким образом, это должно было быть применено к стационарности.Теперь все линии вертикальные, а не временные.
Но еще одна вещь, которая меня беспокоит, это шкала красных данных.Это много красного .В любом случае, как я могу инвертировать стационарность и повторно применить даты к данным для построения?Это явно не должно выглядеть так.:)