Я пытаюсь использовать LSTM в Keras, и я не уверен, должен ли я использовать LSTM с полным состоянием или без состояния. Я прочитал много ресурсов в Интернете, но похоже, что они не относятся к моему делу.
У меня есть длинная серия предсказателей X=[X1,X2,....,Xn]
и длинная серия ответов y=[0,0,...,1,1,0,...0]
. Они имеют одинаковую длину, и ответ может принимать только значение 1 или 0. Мой план состоит в том, чтобы отобрать длинный ряд предикторов и использовать короткий ряд (длина 4), чтобы предсказать ответ для следующих 3 временных точек. Итак, мои тренировочные данные выглядят так:
[X1,X2,X3,X4],[y5,y6,y7]
[X2,X3,X4,X5],[y6,y7,y8]
...
Если я использую все эти доступные короткие серии (образцы), я думаю, что я должен выбрать Stateful. Однако, поскольку в y
намного больше 0 по сравнению с 1, я сохраню все выборки, в которых есть 1, в серии коротких ответов (например, сохраняю эту выборку [y5=0,y6=1,y7=0]
), но случайно выбрасываю много других выборки просто для баланса данных.
Я не уверен, стоит ли использовать здесь с сохранением состояния, поскольку некоторые короткие серии могут быть очень далеко друг от друга.