Добавление еще нескольких идей в ответ, обозначенных bhaskar , которые используются для решения этой проблемы.
Вы можете использовать механизм Внимание , который используется для решенияс долгосрочными зависимостями.Поскольку для длинной последовательности он, безусловно, забывает информацию, или его следующее предсказание может не зависеть от всей информации о последовательности, которую он имеет в своей ячейке.Так что attention mechanism helps to find the reasonable weights for the characters, it depend on.
Для получения дополнительной информации вы можете проверить эту ссылку
Потенциально много исследований по этой проблеме. Эта является самой последней статьей по этой проблеме.
Вы также можете разбить последовательность и использовать модель seq2seq
, которая кодирует объекты в пространство с низким диммером, а затем декодер извлекает их.Это короткая статья об этом.
Мой личный совет - разбить последовательность и затем обучить ее, потому что скользящее окно в полной последовательности в значительной степени способно найти корреляцию между каждымпоследовательность. * * тысяча двадцать-один