Я думаю, что, вероятно, нет, но есть вещи, которые вы можете попробовать.
Матрица intrinsics
, обозначенная ARCamera
, определяется для выражения фокусного расстояния в пиксельных единицах.Но я не уверен, что с этим измерением вы могли бы (вместе с другими, например, диафрагмой) определить эффект размытия глубины.Не меняется ли он и во время автофокуса (эту часть вы можете проверить, по крайней мере).
API-интерфейсы AVCapture, лежащие в основе ARKit, предлагают индикатор lensPosition
, но это общее значение с плавающей запятой.Ноль - это минимальное фокусное расстояние, одно - максимальное, и при отсутствии реальных измерений это соответствует тому, что вы не знали бы, какое размытие применить (или какие физически основанные настройки камеры в SceneKit, настройки Unity использовать) для каждого возможного положения объектива.
Даже если бы вы могли использовать lensPosition
, API для получения устройства захвата, используемого ARSession, не существует.Вы, вероятно, можете смело предположить, что это задняя (широкая) камера.