Я тренируюсь в трех классах с одним классом доминирующего большинства около 80% и двумя другими даже.Я могу обучить модель, используя методы недостаточной выборки / передискретизации, чтобы получить точность проверки 67%, что уже было бы неплохо для моих целей.Проблема заключается в том, что эта производительность присутствует только в сбалансированных данных проверки, и после того, как я проверил выборку с несбалансированными данными, она, похоже, обнаружила тенденцию к равномерному прогнозированию класса.Я также пытался использовать взвешенные функции потерь, но не испытывал радости от выборки.Есть ли хороший способ убедиться в том, что эффективность проверки преобразуется?Я попытался использовать auroc для успешной проверки модели, но опять же сильные показатели присутствуют только в сбалансированных данных проверки.
Методы повторной выборки, которые я пробовал: SMOTE избыточная выборка и случайная недостаточная выборка.