Я пытаюсь разработать приложение для iPhone, которое обрабатывает / фильтрует и записывает видео.
У меня есть два примера приложений, в которых есть аспекты того, что мне нужно, и я пытаюсь их объединить.
AVCamDemo из пакета примеров кода WWDC10 (требуется идентификатор разработчика Apple)
Это относится к захвату / записи видео.
Брэд ЛарсонсПример приложения ColorTracking, на который есть ссылка здесь
Это касается обработки видео в реальном времени с использованием OpenGL ES
Я застреваю при попытке объединить эти два.
То, что я пытался сделать, это использовать AVCaptureVideoOutput
и AVCaptureVideoDataOutputSampleBufferProtocol
для обработки / фильтрации видеокадров через OpenGL ES (как в -2-), и в то же время каким-то образом использовать AVCaptureMovieFileOutput
для записиобработанное видео (как в -1-).
Возможен ли такой подход?Если это так, как мне нужно установить соединения в AVSession
?
Или мне нужно использовать AVCaptureVideoDataOutputSampleBufferProtocol
для обработки / фильтрации видео И затем рекомбинировать отдельные кадры обратно в фильм- без использования AVCaptureMovieFileOutput
для сохранения файла фильма?
Любые предложения по наилучшему подходу для достижения этой цели очень приветствуются!