Как понять, где робот находится в космосе по 2 изображениям - PullRequest
0 голосов
/ 27 июня 2011

Я пытаюсь научить своего робота ходить в замкнутом пространстве, которого он не знает. У робота есть несколько датчиков. Нужно пройти в какую-то точку пространства и найти способ вернуться в исходное положение.

Эта задача очень похожа на Алгоритм исследования робота , но из-за физических ограничений его ног, проходя через пространство, он начинает думать, что он стоит в одной позиции (x1, y1), но в действительности он стоит в другом положении (x2, y2).

Значит, он не может вернуться на стартовую позицию в реальном мире. Я хочу использовать алгоритм, который сравнивает видимое изображение в положении (x1, y1) и видимое изображение в положении (x2, y2), чтобы исправить ошибку движения, но я не знаю, как реализовать мою идею.

Прежде чем я углублюсь в попытку решить эту проблему, кто-нибудь может дать мне несколько советов, как реализовать этот алгоритм?

Ответы [ 2 ]

2 голосов
/ 27 июня 2011

Как изображение представлено? Это буквально просто необработанное растровое изображение, введенное с датчика камеры? Если это так, то у вас могут быть проблемы, потому что эта проблема очень сложная. Название этой конкретной проблемы называется одновременной локализацией и отображением (или сокращенно SLAM):

http://en.wikipedia.org/wiki/Simultaneous_localization_and_mapping

В общем, решить это довольно сложно, и, не зная больше о том, какие у вас данные и какие у вас ограничения на обработку, было бы невозможно ответить на ваш вопрос.

1 голос
/ 27 июня 2011

Есть две проблемы:

  • Вы хотите построить карту своей среды, но для этого вам нужно точное местоположение в этой среде, чтобы учесть то, что дают вам ваши датчики.
  • Вы хотите точно знать, где вы находитесь (потому что ваши датчики дают только приблизительные положения (x2, y2)), но для этого вам нужна карта вашего окружения!

Вы можете заметить, как это проблема курицы и яйца.

Надеюсь, для вас есть SLAM (Одновременная локализация и отображение) !

...