Я пытаюсь разработать распознавание образов IOS приложения, я буду иметь один эталонный образ, и пользователь должен сделать что-то один экраном, а когда пользователь отключился палец, то я преобразует его рисунок в UIImage / CGImage, то я буду сравнивать процент близости к эталонному изображению.
Если процент будет больше 90%, тогда победит пользователь. (См. Рисунок ниже, игнорируйте ? Красный (пользовательский холст) и ? Желтую рамку (эталонная граница не будет включена в изображение atul))
Что я делал до сих пор :
Я создал собственный массив изображений для каждой ссылки, а затем создал MLModel с этого сайта
https://cloud.ibm.com/developer/appledevelopment/starter-kits/custom-vision-model-for-core-ml-with-watson
Это моя созданная модель, на которой я также тренировался:
https://drive.google.com/open?id=1pkunnq9AyXmPYkFdPVWtumXaxGzXm726
Я пытался сделать это с помощью MLModel, но каждый раз приложение показывает 90 +%, я не могу этого сделать.
Пожалуйста, предложите
Я пытаюсь использовать MLKit в iOS Swift, я делаю неправильно, если да, то каков правильный способ сделать это