Захват видео при обработке его через шейдер на iPhone - PullRequest
6 голосов
/ 08 марта 2011

Я пытаюсь разработать приложение для iPhone, которое обрабатывает / фильтрует и записывает видео.

У меня есть два примера приложений, в которых есть аспекты того, что мне нужно, и я пытаюсь их объединить.

  1. AVCamDemo из пакета примеров кода WWDC10 (требуется идентификатор разработчика Apple)
    Это относится к захвату / записи видео.

  2. Брэд ЛарсонсПример приложения ColorTracking, на который есть ссылка здесь
    Это касается обработки видео в реальном времени с использованием OpenGL ES

Я застреваю при попытке объединить эти два.

То, что я пытался сделать, это использовать AVCaptureVideoOutput и AVCaptureVideoDataOutputSampleBufferProtocol для обработки / фильтрации видеокадров через OpenGL ES (как в -2-), и в то же время каким-то образом использовать AVCaptureMovieFileOutput для записиобработанное видео (как в -1-).

Возможен ли такой подход?Если это так, как мне нужно установить соединения в AVSession?

Или мне нужно использовать AVCaptureVideoDataOutputSampleBufferProtocol для обработки / фильтрации видео И затем рекомбинировать отдельные кадры обратно в фильм- без использования AVCaptureMovieFileOutput для сохранения файла фильма?

Любые предложения по наилучшему подходу для достижения этой цели очень приветствуются!

1 Ответ

1 голос
/ 09 августа 2011

http://developer.apple.com/library/ios/#qa/qa1702/_index.html

Вы можете попробовать эту ссылку для захвата видео с помощью AV Foundation, очень полезно.Надеюсь, что ваша единственная проблема будет решена

...