Я знаком с двумя стерео представлениями, но размышляю о том, как точно работают SFM (структура из движения) и MVS (стереофоническое представление Multiview)
Допустим, у меня есть две стереопары камер, (A, B)
и (C, D)
. Я могу рассчитать карту глубины для камеры A
, используя стереосистему с двумя видами с камерами A
и B
. Точно так же я могу рассчитать карту глубины для камеры C
, используя стерео с двумя видами с камерами C
и D
. На основе калибровки я могу превратить карту глубины A
в облака точек и раскрасить их значениями цвета с камеры A
. Точно так же я могу превратить карту глубины C
в облака точек и раскрасить их значениями цвета с камеры C
. В идеальном мире, когда я накладываю облака точек A
и облака точек C
, он должен выглядеть идеально без каких-либо явных проблем с цветом, но, к сожалению, в реальном мире между некоторыми камерами A
будет некоторое различие в цвете. и камера C
снимает для одной и той же точки в пространстве. Я пробовал различные способы усреднения цвета для облаков точек, которые видны как в камере A
, так и в камере C
, но независимо от того, какой будет очевидный цветовой «шов» между облаками точек, которые видны только в камере A
и облака точек, которые видны как в камере A
, так и в камере C
.
Однако такого рода проблемы с цветом, по-видимому, не существует в SFM и MVS. Как показано в результатах colmap , AliceVision и RealityCapture . Я прочитал несколько учебных пособий о том, как работает SFM / MVS, но ни один из них специально не объяснял, как он преодолевает проблему цвета. Большинство из них были сосредоточены на объяснении того, как генерировать глубину, и в случае SFM оценивали внутреннюю природу и позу. Может кто-нибудь объяснить мне, какой метод использует обычный SFM / MVS для решения разницы в цвете? Я был бы признателен за ссылку на учебник / документ, который также объясняет это.