Я прочитал Обучение забыть: постоянное прогнозирование с помощью LSTM , и я не совсем понимаю о трехслойной топологии LSTM в статье (рисунок 6). Рисунок 6 в статье
С моей точки зрения:
- Ячейка 1 в каждом блоке памяти принимает одинаковые выходные значения Output gate, Forget gate и In gateв качестве значений ячейки 2.
- Затворы в блоке 1 памяти получают выходное значение ячейки 1 в блоке 2 памяти, затворы в блоке 2 памяти получают выходное значение ячейки 1 в блоке памяти3 и та же форма для блока памяти 3.
Верны ли эти мнения?Может ли кто-нибудь представить другие топологии с ячейками lstm, которые я могу использовать для задач прогнозирования, связанных с временными рядами?
Большое вам спасибо!