Это классическая проблема перетренированности. Ваша модель только учится переводить ваши тренировочные данные, запоминая каждый образец вместо понимания концепции, лежащей в основе.
По этой причине всегда разделяйте ваши тренировочные данные на тренировочные данные и данные проверки. Данные проверки не должны быть в наборе обучающих данных! Таким образом, вы можете проверить, действительно ли ваша модель что-то изучает.
Для этого есть два основных решения:
- Как m33n сказал больше данных обучения (нет данных, как больше данных)
- Реализуйте больше методов регуляризации, таких как Dropout
Также проблема кажется очень неоднозначной. Перевод предложений - задача не из легких, и такие компании, как Google или Deepl, создали очень сложные модели, в которых много и много данных занято годами. Вы уверены, что у вас есть необходимые ресурсы для этого?