У меня есть временной ряд 10 файлов данных.Из них я тренирую модель LSTM с 5 файлами данных, проверяю с использованием 3 файлов и проверяю с использованием 2 файлов.Я использовал fit_generator от Keras и написал одну функцию генератора для обоих кадров данных обучения и проверки.Но, к сожалению, во время прогноза его первоначальные прогнозы намного выше первоначальной цели.
С другой стороны, если я использую model.fit для каждого фрейма данных, то сравнительно получаю лучший результат.Мой вопрос: «Правильный ли подход для данных временных рядов, когда каждый из файлов данных является отдельным (например, каждый содержит оценки от 0 до 24 часов), чтобы использовать подгонку на каждой итерации для каждого из файлов данных?»
for scaled_dataset in training_list:
reframed_new = series_to_supervised(scaled_dataset, n_in, n_out)
values = reframed_new.values
train = values
# split into input and outputs
train_X, train_y = train[:, :-1], train[:, -1]
# reshape input to be 3D [samples, timesteps, features]
train_X = train_X.reshape((train_X.shape[0], 1, train_X.shape[1]))
model.fit(train_X, train_y, epochs=50, batch_size=475, validation_data=None, verbose=1, shuffle=False)
В моем коде тренировочный список содержит все 5 отдельных фреймов.Поэтому в каждой итерации я подгоняю одну модель.Может кто-нибудь, пожалуйста, скажите мне, если это правильный подход или нет, спасибо заранее