Можете ли вы заставить LSTM забыть контекст вручную? - PullRequest
1 голос
/ 18 марта 2019

Я очень плохо знаком с машинным обучением и бродил, можно ли вручную очистить кратковременную память LSTM.Скажем, например, я хотел тренировать LSTM по предложению «Джек и Джилл пошли вверх», но решил не заканчивать предложение.Если бы я тогда хотел обучить его «Шалтай-болтай, сидевший на стене», как бы я помешал ему немедленно предсказать слово «холм»?Я использую Keras.

1 Ответ

1 голос
/ 18 марта 2019

Соответствует: Когда керасы сбрасывают состояние LSTM?

Вам не нужно сбрасывать контекст, если ваш LSTM не имеет состояния (stateful = False, что, я думаю, было бы более целесообразно для вас), или если вы обучаете LSTM этим двум предложениям, помещая оба в один пакет.

Если вы действительно это делаете, используйте model.reset_state().

...