Для жизни я не могу заставить это работать правильно.
Идея такова: простой скрипт на python, который загружает изображение из URL (каждый раз отличается) и передает его в ffmpeg, например:
python fetch.py | ffmpeg -f image2pipe -framerate 1 -i pipe:.jpg -c:a copy -c:v libx264 -r 5 -b 500000 -s 600x480 ../live555/out.264
Что мне действительно нужно, так это заставить работать с каким-то RTSP-сервером. До сих пор одним из рабочих подходов было использование live555MediaServer, который работает на том же сервере и в значительной степени передает этот файл out.264
.
Почему мне не нравится этот подход:
a,подключение к потоку rtsp с помощью vlc работает, но оно очень нестабильно (видео останавливается), и нет ошибок или чего-либо еще, если я нажму кнопку воспроизведения, он возобновится. debug: live555 debug: RTSP track Close, 0 track remaining
Кажется, что он просто передает все, что имеет файл в данный момент времени, и не делает это непрерывно.
b. Мне не нравится "файловый" подход. Например. ffmpeg создает файл out.264
, который увеличивается. В идеале он просто отправляет поток на сервер RTSP по некоторому протоколу.
c. live555MediaServer просто отстой
Похоже, на моем сервере также есть способ запустить vlc-сервер, но я не могу понять, как заставить ffmpeg кормить vlc-сервер?
Есть предложения?