У вас несбалансированные данные, поэтому для решения этой проблемы вы можете просто использовать библиотеку под названием Несбалансированное обучение
Эта библиотека изначально была предназначена для реализации SMOTE, но позже также реализована с использованием методов выборки и переборки.
Он также совместим с Scikit-Learn.
Использование этого подхода приведет к повторной выборке данных таким образом, чтобы у каждого класса были примерно одинаковые экземпляры.
Второй вариант:
Вы можете просто выбрать одинаковое количество изображений для каждого класса и сформировать тренировочные данные. Это может не повысить вашу точность из-за отсутствия надлежащих тестовых данных, но, несомненно, ваша модель станет более надежной и обобщенной.