В настоящее время я разрабатываю приложение для iOS, которое применяет CoreImage к каналу камеры, чтобы делать фотографии и видео, и я столкнулся с небольшим затруднением.
До сих пор я использовал AVCaptureVideoDataOutput , чтобы получить образцы буферов и манипулировать ими с помощью CoreImage, а затем отображать простой предварительный просмотр, а также использовать его для захвата фотографий и их сохранения.
Когда я пытался реализовать запись видео, записывая SampleBuffers в видео, когда я получал их от AVCaptureVideoDataOutput , у него была очень низкая частота кадров (возможно, из-за обработки другого изображения, которая продолжается).
Итак, мне было интересно, возможно ли иметь AVCaptureVideoDataOutput и AVCaptureMoveFileOutput, работающие одновременно на одном AVCaptureSession?
Я быстро его изучил и обнаружил, что когда я добавил дополнительный вывод, мой AVCaptureVideoDataOutput прекратил получать информацию.
Если я смогу заставить его работать, я надеюсь, что это означает, что я могу просто использовать 2-й выход для записи видео с высокой частотой кадров и выполнять постобработку видео после того, как пользователь прекратил запись.
Любая помощь будет принята с благодарностью.