Я пытаюсь транслировать видео и аудио с моей веб-камеры, подключенной к моему безголовому серверу Ubuntu (работает Maverick 10.10).Я хочу иметь возможность потоковой передачи в формате WebM (видео VP8 + OGG).Пропускная способность ограничена, и поэтому поток должен быть ниже 1 Мбит / с.
Я пытался использовать FFmpeg.Я могу записывать видео WebM с веб-камеры со следующими параметрами:
ffmpeg -s 640x360 \
-f video4linux2 -i /dev/video0 -isync -vcodec libvpx -vb 768000 -r 10 -vsync 1 \
-f alsa -ac 1 -i hw:1,0 -acodec libvorbis -ab 32000 -ar 11025 \
-f webm /var/www/telemed/test.webm
Однако, несмотря на эксперименты со всеми вариантами параметров vsync и async, я могу быстро отключить синхронизацию звука или стиль Бенни Хилла.переслать видео с соответствующим быстрым звуком.Я также не смог заставить это работать с ffserver (заменив путь и имя файла test.webm соответствующим именем файла фида).
Цель - получить живой, аудио + видео канал, который можно просматриватьв современном браузере, в узкой полосе пропускания, используя только компоненты с открытым исходным кодом.(Ничего из этого не относится к формату MP3)
Поэтому у меня возникли вопросы: как бы вы поступили с потоковой передачей webm с веб-камеры через Linux с синхронизированным аудио?Какое программное обеспечение вы используете?
Удалось ли вам кодировать webm с веб-камеры с синхронизированным аудио через FFmpeg?Если да, то какую команду вы вводили?
Стоит ли продолжать работу с FFmpeg + FFserver, или есть другие более подходящие инструменты командной строки (например, VLC, который, кажется, не слишком хорошо построен для кодирования)?
Настраивается ли что-то вроде Gstreamer + flumotion из командной строки?Если да, где я могу найти документацию по командной строке, потому что flumotion doc довольно легок в деталях командной строки?
Заранее спасибо!