Я обучаю модель CNN, которая должна классифицировать 4 объекта. 3 кружки (белая, черная, синяя) и 1 стакан. Когда я тренирую свою модель всего 10 эпох, я получаю точность проверки 25%, когда все маркируется как белая кружка. Однако, когда я буду тренировать одну и ту же модель дольше, она в конечном итоге отклонится от этой 25% точности и поднимется до 80%, единственная проблема, которая у нее есть, - это классификация белой кружки.
Другими словами, если я Я могу выяснить, почему мой классификатор неправильно классифицирует белую кружку, тогда я потенциально могу достичь validation_accuracy 90%. Таким образом, мой вопрос заключается в том, что я мог бы попытаться выяснить, почему он ошибается, или что нужно улучшить. Я уже использовал LIME, чтобы проверить, почему моя модель что-то классифицирует, но я не мог понять из этого.
Некоторые характеристики модели:
- Нет увеличения данных
- 5 сверточных слоев (32, 64, 128, 256, 512) -> в GlobalMaxPooling, Flatten и 2 плотных слоя (128, 4)
- Слои активации (relu)
- 2000 обучающих изображений, 1000 проверочных изображений (классы сбалансированы)
Дополнительно: модель получает 100% точность на обучающих данных через 2 эпохи и медленно поднимается до 80% на проверочных данных (после около 40-50 эпох).
Extra 2: Иногда модель получает 80%, иногда только 74%