ARKit API поддерживает одновременное отслеживание мира и лица через заднюю и переднюю камеры, но, к сожалению, из-за аппаратных ограничений новый iPad Pro 2020 не может использовать эту функцию (возможно, потому что камера LIDAR потребляет гораздо больше энергии). Это немного назад.
Вот обновленная ссылка в примере проекта :
guard ARWorldTrackingConfiguration.supportsUserFaceTracking else {
fatalError("This sample code requires
iOS 13 / iPad OS 13, and an iOS device with
a front TrueDepth camera. Note: 2020 iPads
do not support user face-tracking while world tracking.")
}
Также существует форумная беседа доказательство того, что это непреднамеренный аппаратный недостаток.
Похоже, что мобильная технология еще не готова для обеих сторон. Однако для моего случая использования я просто хотел иметь возможность плавно переключаться между режимами отслеживания спереди и сзади, без необходимости перенастраивать пространство отслеживания. Например, я хотел бы, чтобы кнопка переключалась между режимом «теперь вы отслеживаете и видите мое лицо» и режимом «отслеживания мира».
Есть 2 случая: это возможно или невозможно, но, возможно, есть некоторые альтернативные подходы в зависимости от этого.
Возможно ли, или переключение режимов отслеживания AR потребует повторной настройки пространства отслеживания? Если так, как это будет достигнуто?
Если это невозможно: даже если я не получаю отслеживание лица во время отслеживания мира, есть ли способ получить фронтальную подачу камеры, которую я могу использовать с каркасом Vision, например?
В частности: как включить отслеживание, обращенное назад, и одновременно получать сигналы с фронтальной и оборотной стороны камеры, а также выборочно отключить одну или другую? Если это возможно даже без отслеживания на передней панели и только подачи basi c, это будет работать.