Потоковая передача JPEG-видео в приложение для iPhone - PullRequest
0 голосов
/ 15 декабря 2011

Я прогрессирую, беря данные камеры глубины из моего kinect и передавая их в приложение iphone. Я дошел до того, что смог сохранить JPEG для каждого кадра, созданного из изображения глубины Kinect (30 кадров в секунду) и сохранить их на локальном диске. Я смог преобразовать это в mpeg с помощью ffmpeg.

Мой вопрос сейчас, как я могу посмотреть это в прямом эфире на моем iphone? По сути, я хочу посмотреть его вживую на iphone, как вы видите, что он исходит от Kinect.

Должен ли я использовать потоковую передачу по протоколу http и использовать сегментатор для использования функции HttpLiveStreaming яблок? Или я могу каким-то образом передавать потоковые файлы изображений в формате JPEG по мере их сохранения на диск, а затем просто циклически повторять изображения на телефоне?

Мне интересно, как достигается видеоконференция на iphone (facetime / skype и т. Д.)? потому что я бы предпочел, чтобы он не воспроизводился внутри видеоплеера, просто хочу отображать живой контент на экране, как это происходит.

Есть идеи? Заранее спасибо

Ответы [ 2 ]

0 голосов
/ 14 февраля 2012

JPEG, как правило, слишком велики для потоковой передачи в реальном времени - я обнаружил, что на Wi-Fi скорость составляет около 5 кадров в секунду.Если вы берете выходные данные mpeg небольшими порциями (скажем, 5-10 секунд видео в каждом фрагменте) и используете ffmpeg для преобразования их в контейнеры .ts (транспортный поток mpeg2), то довольно просто динамически записать индексный файл m3u8, которыйсодержит список фрагментов по порядку.Направьте UIWebView на URL-адрес файла m3u8, и поток начнет воспроизводиться, хотя он будет использовать встроенный видеоплеер.Вы можете использовать другие медиа / AV классы для просмотра вашего потока, хотя, я считаю.

0 голосов
/ 16 декабря 2011

Здесь аналогичный проект. Надеюсь, это поможет.

...