Ну, это ситуация ("негативные изображения"), где, как было обнаружено относительно недавно, результаты не те, что мы можем ожидать от них ...
Существует неопубликованная статья @ ArXiv, в которой точно показано, что модели CNN, которые достигли почти идеальной точности тестирования в наборах данных, таких как MNIST и CIFAR-10, не могут обеспечить аналогичную производительность на соответствующих «негативных» изображениях (т.е. с перевернутым фоном). & переднего плана, как ваш случай здесь):
Об ограничении сверточных нейронных сетей при распознавании негативных изображений
Вот основной результат работы:

Проблема довольно нетривиальна, и в сообществе возникли серьезные разногласия относительно того, действительно ли этот результат ожидаемый и неудивительный или нет; см. (сейчас в архиве) соответствующее обсуждение @ Reddit , а также соответствующую статью @ KDNuggets .
В целом, как предполагает статья, вы можете сделать это с одной моделью, но вам нужно будет включить хотя бы несколько таких «негативных» изображений в ваше обучение. См. Также поток SO Высокая точность обучения, но низкая производительность прогнозирования для официальной модели MNIST Tensorflow .