Я пытаюсь использовать какао, чтобы получить изображения с веб-камеры. Я могу получить изображение в формате RGBA, используя QTKit и вызов делегата didOutputVideoFrame, и преобразовав CVImageBuffer в CIImage, а затем в NSBitmapImageRep.
Я знаю, что моя камера изначально захватывает в YUV, я хочу получить данные YUV непосредственно из CVImageBuffer и обработать кадр YUV перед его отображением.
Мой вопрос: как я могу получить данные YUV из CVImageBuffer?
спасибо.