ARKit и каркас видения: определение положения объекта в реальном слове - PullRequest
0 голосов
/ 22 сентября 2018

Сейчас я занимаюсь разработкой приложения для ювелирных украшений, и мне удалось обнаружить руку, используя приведенный ниже код и некоторые исследования.

https://www.toptal.com/swift/ios-arkit-tutorial-drawing-in-air-with-fingers

Я использовал Detecting Planes in ARKit и Detecting the User’s Fingertipтакже использовал ARWorldTrackingConfiguration.

Теперь я застрял, потому что я не получил идеальное положение предмета (украшения), который я положил на руку, если я переместил руку вверх или вниз или налево,объект не двигался идеально с рукой, я просто добился успеха на 40%.

есть ли другой способ добиться успеха с моей проблемой?Есть ли какие-либо другие фреймворки или другие вещи, которые мне не хватает?

Заранее спасибо ..

Я ищу много таких вещей, как ...

Vision Frameworkс ARkit и CoreML https://developer.apple.com/documentation/arkit/using_vision_in_real_time_with_arkit

, а также многое другое ..

...