Как вы правильно сказали, этого можно достичь с помощью свойства экземпляра rawFeaturePoints
, представляющего заметные функции, обнаруженные на изображении с камеры.
var rawFeaturePoints: ARPointCloud? { get }
ИЛИ
sceneView.session.currentFrame?.rawFeaturePoints
Вот выдержка из CODE , написанная Джошем Роббинсом на GitHub.
func renderer(_ renderer: SCNSceneRenderer, updateAtTime time: TimeInterval) {
guard let currentFrame = self.augmentedRealitySession.currentFrame,
let featurePointsArray = currentFrame.rawFeaturePoints?.points else { return }
visualizeFeaturePointsIn(featurePointsArray)
}
func visualizeFeaturePointsIn(_ featurePointsArray: [vector_float3]) {
self.augmentedRealityView.scene.rootNode.enumerateChildNodes { (featurePoint, _) in
featurePoint.geometry = nil
featurePoint.removeFromParentNode()
}
DispatchQueue.main.async {
self.rawFeaturesLabel.text = self.Feature_Label_Prefix + String(featurePointsArray.count)
}
featurePointsArray.forEach { (pointLocation) in
let clone = sphereNode.clone()
clone.position = SCNVector3(pointLocation.x, pointLocation.y, pointLocation.z)
self.augmentedRealityView.scene.rootNode.addChildNode(clone)
}
}