Я отвечаю на это, так что любой, кто сталкивается с этой проблемой / вопросом, не должен проводить такое же исследование, как я.
Очевидно, что доступ к одному изображению и его обработка не совсем соответствуют определению дополненной реальности. Для этого есть другое ключевое слово, которое я уже забыл (извините), но если вы хотите использовать Google, вам не следует фокусироваться только на AR-программном обеспечении.
Для решения моей проблемы я использовал два подхода. Первым было использовать ARToolKit вместе с gstreamer и ffmpeg. Я преобразовал одно изображение в одну секунду видео с помощью ffmpeg, экспортировал строку ARTOOLKIT_CONFIG и затем отрисовал изображение с помощью ARToolKit. Это было не очень здорово, так как это очень ограниченно, и я не могу вернуть мне отрендеренное изображение без анализа вывода artoolkit-opengl.
Мой второй подход, однако, меня очень удовлетворил: я использовал OpenCV-библиотеку для обнаружения маркера. Пример чего-то подобного можно найти здесь: http://dasl.mem.drexel.edu/~noahKuntz/openCVTut10.html
Затем я экспортировал распознанные параметры камеры и преобразовал их так, чтобы они соответствовали матрице, используемой Irrlich-Engine (я также пробовал Ogre, но Irrlicht мне показался более приятным), а затем перенес свой объект с ним на изображение. Затем я могу получить окончательный результат с помощью функции Ирлихта transformDataToImage ().
Единственный недостаток - у меня должен быть запущен X-сервер, чтобы получить отрендеренное изображение, но я могу жить с этим.
PS: не пытайтесь делать это с квадратным маркером, найденным в уроке, который я упоминал выше. Невозможно определить точное вращение маркера по очевидным причинам.