На самом деле LSTM блокирует процесс один шаг за один раз. Аргумент units
на самом деле является размерностью выходного пространства. Так что это в основном не имеет ничего общего с размером временных шагов.
В частности, вход и выход LSTM или RNN должны выглядеть следующим образом:
(временной шаг, input_dim) -> LSTM -> (временной шаг, output_dim)
Однако аргумент return_sequences
по умолчанию равен False
(в Keras Python, не уверен с R). Таким образом, слой LSTM вернет состояние шага времени last по умолчанию. Вот почему вы можете подключить его к плотному слою.