Я занимаюсь разработкой приложения, которое требует использования фронтальных (TrueDepth) возможностей отслеживания лица в конфигурации сеанса отслеживания мира ARKit. Эта функциональность (одновременное использование фронтальной и задней камер в ARKit) прекрасно работает с тех пор, как она была представлена ARKit 3 прошлым летом ... на моих iPhone с камерами TrueDepth. Сегодня я получил свой новый iPad Pro 2020, запустил свое приложение и был шокирован, обнаружив, что ARWorldTrackingConfiguration.supportsUserFaceTracking
возвращает false. Это почти не может иметь место, так как это резко отрицательно сказывается на назначении устройства, которое заключается в предоставлении возможности AR нового поколения. Я подтвердил это с помощью собственного демонстрационного приложения Apple «Сочетание отслеживания лиц пользователей и отслеживания мира», которое не работает на iPad Pro. Я также проверил, что отслеживание лица работает в ARFaceTrackingConfiguration
.
Может кто-нибудь объяснить это или предложить обходной путь или решение? Кажется невозможным, чтобы эта важная функциональность не поддерживалась на этом конкретном устройстве.
ОТВЕТ: Подтверждено Apple - это аппаратная проблема с iPad Pro. Из-за аппаратной конфигурации LiDAR устройство вообще не поддерживает одновременное использование передней и задней камер.