Я хочу сшить несколько фоновых изображений, предоставленных ARKit (ARFrame.capturedImage
). (Я знаю, что есть более эффективные способы выполнить эту задачу, но я использую свой собственный алгоритм.)
Проблема в том, что прямой эфир не имеет заблокированной экспозиции, и поэтому цвет объекта в сцене зависит от на то, как я ориентирую свой iPhone. Это, например, приводит к тому, что стена имеет очень разный цвет в каждом кадре (от белого через серый до коричневого-i sh), что создает видимые полосы при сшивании изображений.
Я заметил, что ARKit предоставляет lightEstimate
для каждого ARFrame
со свойствами ambientIntensity
и ambientColorTemperature
. Существует также свойство ARFrame.camera.exposureOffset
.
Можно ли использовать эти свойства для «нормализации» захваченных изображений, чтобы цвета объектов в сцене оставались примерно одинаковыми на протяжении всего времени, а я не
PS Мне нужно использовать ARKit, иначе я бы настроил свой собственный сеанс на основе AVFoundation
API с моими собственными настройками (например, заблокированной экспозицией).