Сначала проверьте, есть ли у вас хороший набор данных, т. Е. Если это классификация, затем получите одинаковое количество изображений для всех классов и получите его из одного источника, а не из разных источников. И регуляризация, отсева используются для переоснащения / высокой дисперсии, так что не беспокойтесь об этом.
Тогда, я думаю, что ваша модель работает хорошо, когда вы обучили свою модель, первоначальная ошибка между ними различна, но когда вы увеличили эпохи, они оба встали на какой-то устойчивый путь. Ну это хорошо. И может быть причина этого в том, что я упоминал выше, или вы должны попытаться перетасовать их, а затем с помощью train_test_split для лучшего распределения учебных и проверочных наборов. График кривых обучения показывает хорошее соответствие, если:
- График потери обучения уменьшается до точки устойчивости.
- График потери проверки уменьшается до точки устойчивости и имеет небольшой разрыв с потерей обучения.
В вашем случае эти условия выполняются.
Тем не менее, если вы хотите иметь дело с высоким уклоном / недостаточным оснащением, вот несколько способов:
- Тренируйте большие модели
- Тренируйтесь дольше. Используйте лучшие методы оптимизации
- Попробуйте другую архитектуру нейронной сети, а также гиперпараметры
А также вы можете использовать перекрестную проверку или GridSearchCV для поиска лучшего оптимизатора или гиперпараметров, но это может потребовать действительно долго, потому что вы должны тренировать его по разным параметрам каждый раз, учитывая ваше время, которое составляет 15 часов, тогда это может быть очень долго, но вы найдете лучшие параметры и затем тренируетесь по нему.
Прежде всего, я думаю, что с вашей моделью все в порядке.