предотвращение переобучения алгоритма lstm для небольших наборов данных - PullRequest
0 голосов
/ 25 февраля 2020

Я моделирую 1273 комментария для прогнозирования настроений, используя однослойный LSTM со скрытыми единицами, используя word2ve c -подобное представление с 100 измерениями. Я получаю (потеря тестового набора; 0,428 и точность 0,839) точность после 5 эпох. Дальнейшее обучение приводит к тому, что точность проверки начинает снижаться, когда точность обучения начинает становиться явным признаком переоснащения.

Каковы некоторые эффективные способы уменьшения переобучения для этой модели в моем наборе данных?

...