Я использую CoreML для прогнозирования моей модели. Тем не менее, результат довольно странный, чем я в Python. Затем я обнаружил, что CoreML не нормализует входное изображение, если я не хочу делать много сложных настроек перед использованием .mlmodel.
Так что я делаю предварительную обработку в Swift. Я получаю средний цвет изображения, но не могу найти способ вычесть изображение.
Как вычесть цвет из UIImage?
Например: img = img - mean(img)