Классификация изображений с помощью Vision и CoreML в macOS - PullRequest
0 голосов
/ 09 декабря 2018

Я научил IBM Watson распознавать объекты, представляющие интерес.Поскольку удаленное выполнение не является обязательным требованием, я хочу экспортировать в .mlmodel с помощью предоставленного инструмента и запускать в macOS.

К сожалению, изучение Swift и разработка под MacOS также не является обязательным требованием.Можно вызвать Vision напрямую из командной строки или из языка сценариев?В качестве альтернативы кто-нибудь знает скелет приложения MacOS для запуска Vision над списком файлов и получения результатов классификации в табличной форме?Спасибо.

Ответы [ 2 ]

0 голосов
/ 10 декабря 2018

Вы также можете загрузить mlmodel в Python и использовать пакет coremltools для прогнозирования.Я бы не стал использовать это в производственной среде, но все в порядке, чтобы получить что-то базовое и запустить.

0 голосов
/ 10 декабря 2018

Код, упомянутый в этой статье , использует загруженную модель Core ML в приложении для iOS через Watson SDK.

Кроме того, ниже приведен пример кода, в котором используются Watson Visual Recognition и Core ML дляклассифицировать изображения.Рабочее пространство состоит из двух проектов

  • Core ML Vision Simple: классифицируйте изображения локально с помощью Visual Recognition.
  • Core ML Vision Custom: обучите пользовательскую модель Visual Recognition для более специализированной классификации.

См. Код и инструкции здесь

Также имеется стартовый набор, который поставляется с Watson Visual Recognition, предварительно настроенным для Core ML - https://console.bluemix.net/developer/appledevelopment/starter-kits/custom-vision-model-for-core-ml-with-watson

...