ios ARKit 3 с iPad Pro 2020, как использовать данные фронтальной камеры с отслеживанием задней камеры? - PullRequest
2 голосов
/ 17 апреля 2020

ARKit API поддерживает одновременное отслеживание мира и лица через заднюю и переднюю камеры, но, к сожалению, из-за аппаратных ограничений новый iPad Pro 2020 не может использовать эту функцию (возможно, потому что камера LIDAR потребляет гораздо больше энергии). Это немного назад.

Вот обновленная ссылка в примере проекта :

guard ARWorldTrackingConfiguration.supportsUserFaceTracking else {
    fatalError("This sample code requires 
iOS 13 / iPad OS 13, and an iOS device with 
a front TrueDepth camera. Note: 2020 iPads 
do not support user face-tracking while world tracking.")
}

Также существует форумная беседа доказательство того, что это непреднамеренный аппаратный недостаток.

Похоже, что мобильная технология еще не готова для обеих сторон. Однако для моего случая использования я просто хотел иметь возможность плавно переключаться между режимами отслеживания спереди и сзади, без необходимости перенастраивать пространство отслеживания. Например, я хотел бы, чтобы кнопка переключалась между режимом «теперь вы отслеживаете и видите мое лицо» и режимом «отслеживания мира».

Есть 2 случая: это возможно или невозможно, но, возможно, есть некоторые альтернативные подходы в зависимости от этого.

Возможно ли, или переключение режимов отслеживания AR потребует повторной настройки пространства отслеживания? Если так, как это будет достигнуто?

Если это невозможно: даже если я не получаю отслеживание лица во время отслеживания мира, есть ли способ получить фронтальную подачу камеры, которую я могу использовать с каркасом Vision, например?

В частности: как включить отслеживание, обращенное назад, и одновременно получать сигналы с фронтальной и оборотной стороны камеры, а также выборочно отключить одну или другую? Если это возможно даже без отслеживания на передней панели и только подачи basi c, это будет работать.

...