Я работаю с проблемой классификации документов и пытался применить основную c модель RNN / LSTM.
Я сделал многослойную модель LSTM и тренировался с 15 эпохами, но я получил около 53% тренировок за cc. и 41% тестируют cc. Когда я тренируюсь с большими эпохами, тренирую cc. увеличился и протестировал cc. снизился примерно до 33%.
Я знал, если тест а cc. ниже, чем тренировка cc., это может быть переоснащение. И причина переоснащения в том, что модель обучала даже шуму набора данных поезда. Но я думаю, что если произошла перегрузка, тренировка cc. должен быть достаточно высоким (80-90%) и тестировать cc. это намного ниже, чем это, поскольку переоснащение означает, что модель была буквально «переоснащена» для обучения набора данных.
Теперь я удивляюсь, почему я получил точность на 10% ниже, когда я тренировался с 15 эпохами и получил всего 53% тренировок cc. Это переобучение? Может ли произойти перегрузка, когда я получил довольно низкую тренировку cc.?
Большое спасибо!