Я прогрессирую, беря данные камеры глубины из моего kinect и передавая их в приложение iphone. Я дошел до того, что смог сохранить JPEG для каждого кадра, созданного из изображения глубины Kinect (30 кадров в секунду) и сохранить их на локальном диске. Я смог преобразовать это в mpeg с помощью ffmpeg.
Мой вопрос сейчас, как я могу посмотреть это в прямом эфире на моем iphone? По сути, я хочу посмотреть его вживую на iphone, как вы видите, что он исходит от Kinect.
Должен ли я использовать потоковую передачу по протоколу http и использовать сегментатор для использования функции HttpLiveStreaming яблок? Или я могу каким-то образом передавать потоковые файлы изображений в формате JPEG по мере их сохранения на диск, а затем просто циклически повторять изображения на телефоне?
Мне интересно, как достигается видеоконференция на iphone (facetime / skype и т. Д.)? потому что я бы предпочел, чтобы он не воспроизводился внутри видеоплеера, просто хочу отображать живой контент на экране, как это происходит.
Есть идеи? Заранее спасибо