Кто-нибудь пытался разработать систему SLAM, в которой используются классические функции вместо классических AKAZE/ORB/SURF
?
Сканируя последние конференции Computer Vision, кажется, довольно много сообщений об успешном использовании нейронных сетей для извлечения функций и дескрипторов, и тесты указывают, что они могут быть более надежными, чем их классический эквивалент компьютерного зрения.Я подозреваю, что скорость извлечения является проблемой, но, если у кого-то есть приличный графический процессор (например, NVidia 1050), возможно ли даже построить систему SLAM в реальном времени, работающую, скажем, со скоростью 30 кадров в секунду на изображениях в градациях серого 640x480 с глубоко изученными функциями?