Я пытаюсь обучить LSTM, за которым следует плотный слой в кератах с числовыми входными последовательностями различной длины.диапазон чисел составляет [1,13].каждая из этих последовательностей заканчивается тем же номером, 13 в моем случае.
Я обучаю контроллер нескольким последовательностям, использую обученную модель, чтобы сгенерировать еще несколько последовательностей с теми же свойствами, добавляю их в обучающий набор и снова обучаю LSTM.Когда этот цикл продолжается, предсказания LSTM начинают сходиться к конечному значению каждой последовательности.
Последовательность дополняется до определенной максимальной длины.в результате данные x_train имеют размер (None, max_len-1), а данные y_train являются категориальными данными последнего элемента каждой входной последовательности.в этом случае каждый элемент в данных y_train одинаков (один вектор с горячим кодированием для числа 13).
- Способ структурирования входных и выходных данных является причиной такого искажения прогнозов?
- Есть ли способ обойти это?