Как обучить регрессию RNN LSTM seq2seq с разной длительностью шагов - PullRequest
0 голосов
/ 02 июля 2019

Я прочитал структуру RNN кодера-декодера, мощную в длинном предсказании seq2seq.В данном случае я не уверен, каков правильный подход к решению длинных последовательностей с помощью структуры en-de и обучения.

Я переписал код RNN LSTM seq2seq reg в Python.Я надеюсь, что он получит работу с различной длиной последовательностей в поезде без фиксированного заполнения всей последовательности, т.е. я хочу, чтобы поток данных пользовательской стандартизации соответствовал модели.

Я выбрал 5 кошек каждые 20 последовательностей для обучения сети с равным размером времени.шаги в пакете, но разной длины между партиями с похожим на MATLAB регрессия от последовательности к последовательности с использованием глубокого обучения , в котором:

  1. упаковка различной длины данныхразной длины в каждой партии, чтобы соответствовать модели в обучении,

  2. , используя эти данные, как плавно добавляя 1 задачу в обучении с различными заполнениями в каждой партии.

Я использую Keras с бэкэндом Tenserflow в Python.Я опубликую код, если необходимо.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...