Я работаю над проблемой прогнозирования стоимости акций с использованием LSTM.
Моя работа основана на следующем проекте .Я использую набор данных (временные ряды цен на акции) общей длины 12075, который я разделил на поезд и набор тестов (почти 10%).Это то же самое, что и в ссылочном проекте.
train_data.shape (11000,)
test_data.shape (1075,) ![enter image description here](https://i.stack.imgur.com/w7rQm.png)
В нашей модели мы начинаем с обучения модели lstm «многие ко многим», где мы предоставляем N последовательностей входных данных (цены акций) и N последовательностей меток (которые выбираются путем упорядочивания данных train_data по N сегментам в качестве входных данных иметки выбираются как следующая последовательность значений входов).
Затем мы начинаем прогнозировать каждое значение отдельно и предоставляем его в качестве входных данных в следующий раз, пока не достигнем предсказания num_predictions.
Потеря - это просто MSE между прогнозируемыми значениями и фактическими значениями.
Предсказания в конце кажутся неплохими.Однако я просто не понимаю, почему ошибка обучения резко уменьшается, а ошибка теста всегда очень и очень мала (хотя она продолжает уменьшаться очень мало).Я знаю, что обычно ошибка теста должна начать увеличиваться после некоторого количества эпох из-за переоснащения.Я протестировал более простой код и другой набор данных, и я столкнулся с относительно похожими графиками MSE.
Вот мой цикл гривы:
for ep in range(epochs):
# ========================= Training =====================================
for step in range(num_batches):
u_data, u_labels = data_gen.unroll_batches()
feed_dict = {}
for ui,(dat,lbl) in enumerate(zip(u_data,u_labels)):
feed_dict[train_inputs[ui]] = dat.reshape(-1,1)
feed_dict[train_outputs[ui]] = lbl.reshape(-1,1)
feed_dict.update({tf_learning_rate: 0.0001, tf_min_learning_rate:0.000001})
_, l = session.run([optimizer, loss], feed_dict=feed_dict)
average_loss += l
# ============================ Validation ==============================
if (ep+1) % valid_summary == 0:
average_loss = average_loss/(valid_summary*num_batches)
# The average loss
if (ep+1)%valid_summary==0:
print('Average loss at step %d: %f' % (ep+1, average_loss))
train_mse_ot.append(average_loss)
average_loss = 0 # reset loss
predictions_seq = []
mse_test_loss_seq = []
# ===================== Updating State and Making Predicitons ========================
for w_i in test_points_seq:
mse_test_loss = 0.0
our_predictions = []
if (ep+1)-valid_summary==0:
# Only calculate x_axis values in the first validation epoch
x_axis=[]
# Feed in the recent past behavior of stock prices
# to make predictions from that point onwards
for tr_i in range(w_i-num_unrollings+1,w_i-1):
current_price = all_mid_data[tr_i]
feed_dict[sample_inputs] = np.array(current_price).reshape(1,1)
_ = session.run(sample_prediction,feed_dict=feed_dict)
feed_dict = {}
current_price = all_mid_data[w_i-1]
feed_dict[sample_inputs] = np.array(current_price).reshape(1,1)
# Make predictions for this many steps
# Each prediction uses previous prediciton as it's current input
for pred_i in range(n_predict_once):
pred = session.run(sample_prediction,feed_dict=feed_dict)
our_predictions.append(np.asscalar(pred))
feed_dict[sample_inputs] = np.asarray(pred).reshape(-1,1)
if (ep+1)-valid_summary==0:
# Only calculate x_axis values in the first validation epoch
x_axis.append(w_i+pred_i)
mse_test_loss += 0.5*(pred-all_mid_data[w_i+pred_i])**2
session.run(reset_sample_states)
predictions_seq.append(np.array(our_predictions))
mse_test_loss /= n_predict_once
mse_test_loss_seq.append(mse_test_loss)
if (ep+1)-valid_summary==0:
x_axis_seq.append(x_axis)
current_test_mse = np.mean(mse_test_loss_seq)
# Learning rate decay logic
if len(test_mse_ot)>0 and current_test_mse > min(test_mse_ot):
loss_nondecrease_count += 1
else:
loss_nondecrease_count = 0
if loss_nondecrease_count > loss_nondecrease_threshold :
session.run(inc_gstep)
loss_nondecrease_count = 0
print('\tDecreasing learning rate by 0.5')
test_mse_ot.append(current_test_mse)
#print('\tTest MSE: %.5f'%np.mean(mse_test_loss_seq))
print('\tTest MSE: %.5f' % current_test_mse)
predictions_over_time.append(predictions_seq)
print('\tFinished Predictions')
epochs_evolution.append(ep+1)
Может ли это быть нормальным?мне просто увеличить размер тестового набора?Что-то сделано не так?какие-нибудь идеи, пожалуйста, о том, как это проверить / исследовать?