Как стабилизировать обратное 360 видео с помощью алгоритмов стабилизации? - PullRequest
0 голосов
/ 28 апреля 2020

У нас есть 12-футовое круглое кольцо с примерно 50 камерами, расположенными равномерно по периметру круга. Эти камеры направлены точно в центр круга и выровнены вручную. Наше приложение снимает изображение со всех камер одновременно и создает видео из этих изображений, создавая эффект матрицы. Я считаю, что эффект называется Bullet Time.

Этот процесс работает хорошо и отлично справляется с моментальной съемкой со всех сторон. Проблема состоит в том, что каждая камера не идеально выровнена, и видео заканчивается слегка рывком из-за малейших различий в настройке камеры.

Нам нужно стабилизировать видео. Мы используем vidstabdetect и vidstabtransform от FFmpeg, чтобы сделать это прямо сейчас, но результаты не желательны. Из того, что я понимаю, эти библиотеки предназначены для использования с видео, где угол наклона камеры составляет c.

Вот точные команды:

ffmpeg -i "input.mp4" -vf vidstabdetect=stepsize=32:shakiness=5:accuracy=15:result=transform_vectors.trf -f null - 
ffmpeg -i "input.mp4" -y -vf vidstabtransform=input=transform_vectors.trf:zoom=0:relative=1:interpol=bicubic:smoothing=10,unsharp=5:5:0.8:3:3:0.4 -b:v 100M -vcodec hevc_nvenc -tune film -an stabilized.mp4

Есть ли алгоритмы там за эти обратные или отрицательные 260 видео?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...