Вы, похоже, ответили на свой вопрос.
Да, с помощью ARKit (и API-интерфейсов графа сцены / рендерера по вашему выбору, таких как SceneKit), вы можете размещать виртуальный контент так, чтобы он перемещался с отслеживаемым лицом. В ARSCNView
все, что вам нужно сделать, это назначить этот контент как дочерний элемент узла, который вы получаете от renderer(_:didAdd:for:)
- SceneKit автоматически заботится о перемещении узла всякий раз, когда ARKit сообщает, что лицо переместилось.
Если ARKit не может отследить лицо, потому что оно находится вне диапазона использования камеры TrueDepth ... тогда оно не отслеживает лицо. (Добро пожаловать в тавтологический клуб .) Это означает, что он не знает, где находится лицо, не может сказать вам, как движется лицо, и, следовательно, не может автоматически перемещать виртуальный контент, следуя за лицом.