ARKit создать узел из панорамы экрана - PullRequest
0 голосов
/ 06 июня 2018

В настоящее время я работаю над приложением, цель которого состоит в том, чтобы пользователь мог провести пальцем по экрану и увидеть линию 3D-объектов на сцене, аналогично 3D-рисованию.У меня есть настройки сцены с помощью распознавателя жестов, но я не знаю, как создать узел в трехмерном пространстве на основе панорамы на экране.Это все, что у меня есть сейчас для моего распознавателя жестов.

`@IBAction func panRecognized(_ sender: UIPanGestureRecognizer) {
    print("Panning")
    print(sender.location(in: self.view).x)
    print(sender.location(in: self.view).y)
}`

Меня интересует, как я могу создать узел в трехмерном пространстве с этими координатами x и y, одновременно используя ориентацию и положение устройства?Цель - это объект, который нужно разместить на расстоянии около полуметра от устройства.

1 Ответ

0 голосов
/ 06 июня 2018

Вот несколько способов, которыми вы можете достичь этого, хотя, пожалуйста, обратите внимание, что это только отправная точка и в любом случае не оптимизирована:

Первое, что вы должны сделать, это создать UIPanGestureRecognizer в viewDidLoad, например:

let panToDrawGesture = UIPanGestureRecognizer(target: self, action: #selector(createNodesFromPan(_:)))
self.view.addGestureRecognizer(panToDrawGesture)

Чтобы сделать его более увлекательным, также добавьте массив [UIColor], например:

let colours: [UIColor] = [.red, .green, .cyan, .orange, .purple]

Затем рисовать с помощью вашего жеста распознавателявы можете сделать что-то вроде этого:

///Creates An SCNNode At The Touch Location Of The Gesture Recognizer
@objc func createNodesFromPan(_ gesture: UIPanGestureRecognizer){

    //1. Get The Current Touch Location
    let currentTouchPoint = gesture.location(in: self.augmentedRealityView)

    //2. Perform An ARHitTest For Detected Feature Points
    guard let featurePointHitTest = self.augmentedRealityView.hitTest(currentTouchPoint, types: .featurePoint).first else { return }

    //3. Get The World Coordinates
    let worldCoordinates = featurePointHitTest.worldTransform

    //4. Create An SCNNode With An SCNSphere Geeomtery
    let sphereNode = SCNNode()
    let sphereNodeGeometry = SCNSphere(radius: 0.005)

    //5. Generate A Random Colour For The Node's Geometry
    let randomColour = colours[Int(arc4random_uniform(UInt32(colours.count)))]
    sphereNodeGeometry.firstMaterial?.diffuse.contents = randomColour
    sphereNode.geometry = sphereNodeGeometry

    //6. Position & Add It To The Scene Hierachy
    sphereNode.position = SCNVector3(worldCoordinates.columns.3.x,  worldCoordinates.columns.3.y,  worldCoordinates.columns.3.z)
    self.augmentedRealityView.scene.rootNode.addChildNode(sphereNode)
}

В качестве альтернативы вместо использования gestRecognizer вы можете использовать прикосновения для выполнения рисования:

override func touchesMoved(_ touches: Set<UITouch>, with event: UIEvent?) {

    //1. Get The Current Touch Location
    guard let currentTouchPoint = touches.first?.location(in: self.augmentedRealityView),
        //2. Perform An ARHitTest For Detected Feature Points
        let featurePointHitTest = self.augmentedRealityView.hitTest(currentTouchPoint, types: .featurePoint).first else { return }

    //3. Get The World Coordinates
    let worldCoordinates = featurePointHitTest.worldTransform

    //4. Create An SCNNode With An SCNSphere Geeomtery
    let sphereNode = SCNNode()
    let sphereNodeGeometry = SCNSphere(radius: 0.005)

    //5. Generate A Random Colour For The Node's Geometry
    let randomColour = colours[Int(arc4random_uniform(UInt32(colours.count)))]
    sphereNodeGeometry.firstMaterial?.diffuse.contents = randomColour
    sphereNode.geometry = sphereNodeGeometry

    //6. Position & Add It To The Scene Hierachy
    sphereNode.position = SCNVector3(worldCoordinates.columns.3.x,  worldCoordinates.columns.3.y,  worldCoordinates.columns.3.z)
    self.augmentedRealityView.scene.rootNode.addChildNode(sphereNode)

}

В моем примере augmentedRealityView ссылается на ARSCNView, например:

@IBOutlet weak var augmentedRealityView: ARSCNView!

Надеюсь, это поможет ...

Обновление:

Если вы хотите рисовать на заданном расстоянии и только с использованием положения ARCamera, вы можете сделатьчто-то вроде этого с помощью ARSessionDelegate (и если вы хотите, чтобы ваш рисунок находился на расстоянии 1 м от камеры, измените значение Z на сайтеphereNode.position в части 3):

func session(_ session: ARSession, didUpdate frame: ARFrame) {

    //1. Create An SCNNode With An SCNSphere Geeomtery
    let sphereNode = SCNNode()
    let sphereNodeGeometry = SCNSphere(radius: 0.01)

    //2. Generate A Random Colour For The Node's Geometry
    let randomColour = colours[Int(arc4random_uniform(UInt32(colours.count)))]
    sphereNodeGeometry.firstMaterial?.diffuse.contents = randomColour
    sphereNode.geometry = sphereNodeGeometry

    //3. Position & Add It To The Scene Hierachy
    sphereNode.position = SCNVector3(0,  0, -0.5)
    updatePositionAndOrientationOf(sphereNode, withPosition: sphereNode.position, relativeTo: self.augmentedRealityView.pointOfView!)
    self.augmentedRealityView.scene.rootNode.addChildNode(sphereNode)
}


/// Updates The Position Of An SCNNode In Relation To The Camera Node
///
/// - Parameters:
///   - node: SCNNode
///   - position: SCNVector3
///   - referenceNode: SCNNode
func updatePositionAndOrientationOf(_ node: SCNNode, withPosition position: SCNVector3, relativeTo referenceNode: SCNNode) {

    /* Full Credit To Pablo
    https://stackoverflow.com/questions/42029347/position-a-scenekit-object-in-front-of-scncameras-current-orientation/42030679
    */

    let referenceNodeTransform = matrix_float4x4(referenceNode.transform)

    // Create A Translation Matrix With The Desired Position
    var translationMatrix = matrix_identity_float4x4
    translationMatrix.columns.3.x = position.x
    translationMatrix.columns.3.y = position.y
    translationMatrix.columns.3.z = position.z

    // Multiply The Configured Translation With The ReferenceNode's Transform
    let updatedTransform = matrix_multiply(referenceNodeTransform, translationMatrix)
    node.transform = SCNMatrix4(updatedTransform)
}
...