Сейчас я занимаюсь разработкой приложения для ювелирных украшений, и мне удалось обнаружить руку, используя приведенный ниже код и некоторые исследования.
https://www.toptal.com/swift/ios-arkit-tutorial-drawing-in-air-with-fingers
Я использовал Detecting Planes in ARKit
и Detecting the User’s Fingertip
также использовал ARWorldTrackingConfiguration
.
Теперь я застрял, потому что я не получил идеальное положение предмета (украшения), который я положил на руку, если я переместил руку вверх или вниз или налево,объект не двигался идеально с рукой, я просто добился успеха на 40%.
есть ли другой способ добиться успеха с моей проблемой?Есть ли какие-либо другие фреймворки или другие вещи, которые мне не хватает?
Заранее спасибо ..
Я ищу много таких вещей, как ...
Vision Frameworkс ARkit и CoreML https://developer.apple.com/documentation/arkit/using_vision_in_real_time_with_arkit
, а также многое другое ..