Я хочу оценить матрицу преобразования между двумя изображениями, снятыми на одной и той же сцене с разных позиций.
Я пробовал два метода:
Ссылки, связанные с первым методом: https://docs.opencv.org/2.4/doc/tutorials/features2d/feature_homography/feature_homography.html https://docs.opencv.org/3.3.0/dc/d2c/tutorial_real_time_pose.html
Я использую извлечение ключевых точек, описаний и сопоставление изображений, чтобы найти соответствующие точки между двумя изображениями, затем использую findHomography для вычисления матрицы.Однако этот метод сопоставления изображений не работает должным образом, хотя я использовал различные методы, упомянутые в приведенных выше ссылках.
Второй метод, я пробовал esimateRigidTransform.Однако он возвращает пустую матрицу для следующих двух примеров изображений.
В документе «Два растровых изображения». В этом случае функция сначала находит некоторые функции в изображении src.и находит соответствующие функции в dst image. После этого проблема сводится к первому случаю. "Кажется, он использует аналогичные идеи в качестве первого метода.
Мои вопросы: 1. Почему esimateRigidTransform возвращает пустую матрицу для таких похожих изображений?2. Есть ли лучший метод для вычисления матрицы преобразования между похожими изображениями, снятыми на одной и той же сцене с разных позиций?Например, могу ли я пропустить обнаружение функции и сопоставить шаги?
Спасибо.