CVImageBuffer для iOS искажен из AVCaptureSessionDataOutput с AVCaptureSessionPresetPhoto - PullRequest
23 голосов
/ 01 июля 2011

На высоком уровне я создал приложение, которое позволяет пользователю направлять свою камеру iPhone и видеть видеокадры, обработанные с помощью визуальных эффектов.Кроме того, пользователь может нажать кнопку, чтобы сделать стоп-кадр текущего предварительного просмотра в качестве фотографии высокого разрешения, сохраненной в его библиотеке iPhone.

Для этого приложение выполняет следующую процедуру:

1) Создайте AVCaptureSession

captureSession = [[AVCaptureSession alloc] init];
[captureSession setSessionPreset:AVCaptureSessionPreset640x480];

2) Подключите AVCaptureDeviceInput с помощью обращенной назад камеры.

videoInput = [[[AVCaptureDeviceInput alloc] initWithDevice:backFacingCamera error:&error] autorelease];
[captureSession addInput:videoInput];

3) Подключите AVCaptureStillImageOutput к сеансу, чтобыбыть в состоянии захватывать неподвижные кадры с разрешением Фото.

stillOutput = [[AVCaptureStillImageOutput alloc] init];
[stillOutput setOutputSettings:[NSDictionary
    dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA]
    forKey:(id)kCVPixelBufferPixelFormatTypeKey]];
[captureSession addOutput:stillOutput];

4) Подключите AVCaptureVideoDataOutput к сеансу, чтобы иметь возможность захватывать отдельные видеокадры (CVImageBuffers) с более низким разрешением

videoOutput = [[AVCaptureVideoDataOutput alloc] init];
[videoOutput setVideoSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey]];
[videoOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()];
[captureSession addOutput:videoOutput];

5) По мере захвата видеокадров метод делегата вызывается с каждым новым кадром как CVImageBuffer:

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
    CVImageBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
    [self.delegate processNewCameraFrame:pixelBuffer];
}

6) Затем делегат обрабатывает / рисует их:

- (void)processNewCameraFrame:(CVImageBufferRef)cameraFrame {
    CVPixelBufferLockBaseAddress(cameraFrame, 0);
    int bufferHeight = CVPixelBufferGetHeight(cameraFrame);
    int bufferWidth = CVPixelBufferGetWidth(cameraFrame);

    glClear(GL_COLOR_BUFFER_BIT);

    glGenTextures(1, &videoFrameTexture_);
    glBindTexture(GL_TEXTURE_2D, videoFrameTexture_);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);

    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, bufferWidth, bufferHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, CVPixelBufferGetBaseAddress(cameraFrame));

    glBindBuffer(GL_ARRAY_BUFFER, [self vertexBuffer]);
    glBindBuffer(GL_ELEMENT_ARRAY_BUFFER, [self indexBuffer]);

    glDrawElements(GL_TRIANGLE_STRIP, 4, GL_UNSIGNED_SHORT, BUFFER_OFFSET(0));

    glBindBuffer(GL_ARRAY_BUFFER, 0);
    glBindBuffer(GL_ELEMENT_ARRAY_BUFFER, 0);
    [[self context] presentRenderbuffer:GL_RENDERBUFFER];

    glDeleteTextures(1, &videoFrameTexture_);

    CVPixelBufferUnlockBaseAddress(cameraFrame, 0);
}

Это все работает и приводит к правильным результатам.Я вижу предварительный просмотр видео размером 640x480, обработанный через OpenGL.Это выглядит так:

640x480 Correct Preview

Однако, если я сделаю снимок из этого сеанса, его разрешение также будет 640x480.Я хочу, чтобы оно было с высоким разрешением, поэтому на первом шаге я изменяю строку предустановки на:

[captureSession setSessionPreset:AVCaptureSessionPresetPhoto];

. Это правильно фиксирует неподвижные изображения с самым высоким разрешением для iPhone4 (2592x1936).

Однако предварительный просмотр видео (полученный делегатом на этапах 5 и 6) теперь выглядит следующим образом:

Photo preview incorrect

Я подтвердил, что все остальные предустановки (Высокий, средний,Низкий, 640x480 и 1280x720) предварительный просмотр, как предполагалось.Однако предустановка Photo, похоже, отправляет данные буфера в другом формате.

Я также подтвердил, что данные, отправляемые в буфер в предустановке Photo, фактически являются действительными данными изображения, взяв буфер и создавUIImage из него вместо отправки его в openGL:

CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(CVPixelBufferGetBaseAddress(cameraFrame), bufferWidth, bufferHeight, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst); 
CGImageRef cgImage = CGBitmapContextCreateImage(context); 
UIImage *anImage = [UIImage imageWithCGImage:cgImage];

Это показывает неискаженный видеокадр.

Я выполнил кучу поиска и не могу исправить это.Я догадываюсь, что это проблема с форматом данных.То есть я считаю, что буфер устанавливается правильно, но с форматом, который эта строка не понимает:

glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, bufferWidth, bufferHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, CVPixelBufferGetBaseAddress(cameraFrame));

Я догадывался, что изменение внешнего формата с GL_BGRA на что-то другое поможет,но это не так ... и различными способами кажется, что буфер на самом деле находится в GL_BGRA.

Кто-нибудь знает, что здесь происходит?Или у вас есть какие-либо советы о том, как я могу отладить, почему это происходит?(Что странно, так это то, что это происходит на iphone4, но не на iPhone 3GS ... оба работают под управлением ios4.3)

Ответы [ 8 ]

13 голосов
/ 31 октября 2011

Это было офигительно.

Как отметил Лио Бен-Керет, отступ составляет 48, как вы можете видеть из отладчика

(gdb) po pixelBuffer
<CVPixelBuffer 0x2934d0 width=852 height=640 bytesPerRow=3456 pixelFormat=BGRA
# => 3456 - 852 * 4 = 48

OpenGL может компенсировать это, но OpenGL ES не может (подробнее здесь OpenGL SubTexturing )

Вот как я это делаю в OpenGL ES:

(CVImageBufferRef)pixelBuffer   // pixelBuffer containing the raw image data is passed in

/* ... */
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, videoFrameTexture_);

int frameWidth = CVPixelBufferGetWidth(pixelBuffer);
int frameHeight = CVPixelBufferGetHeight(pixelBuffer);

size_t bytesPerRow, extraBytes;

bytesPerRow = CVPixelBufferGetBytesPerRow(pixelBuffer);
extraBytes = bytesPerRow - frameWidth*4;

GLubyte *pixelBufferAddr = CVPixelBufferGetBaseAddress(pixelBuffer);

if ( [[captureSession sessionPreset] isEqualToString:@"AVCaptureSessionPresetPhoto"] )
{

    glTexImage2D( GL_TEXTURE_2D, 0, GL_RGBA, frameWidth, frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, NULL );

    for( int h = 0; h < frameHeight; h++ )
    {
        GLubyte *row = pixelBufferAddr + h * (frameWidth * 4 + extraBytes);
        glTexSubImage2D( GL_TEXTURE_2D, 0, 0, h, frameWidth, 1, GL_BGRA, GL_UNSIGNED_BYTE, row );
    }
}
else
{
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, frameWidth, frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, pixelBufferAddr);
}

Раньше я использовал AVCaptureSessionPresetMedium и получал 30 кадров в секунду. В AVCaptureSessionPresetPhoto я получаю 16fps на iPhone 4. Цикл для суб-текстуры, похоже, не влияет на частоту кадров.

Я использую iPhone 4 на iOS 5.

5 голосов
/ 13 февраля 2012

Просто нарисуй вот так.

size_t bytesPerRow = CVPixelBufferGetBytesPerRow(pixelBuffer);
int frameHeight = CVPixelBufferGetHeight(pixelBuffer);

GLubyte *pixelBufferAddr = CVPixelBufferGetBaseAddress(pixelBuffer);
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGBA, (GLsizei)bytesPerRow / 4, (GLsizei)frameHeight, 0, GL_BGRA, GL_UNSIGNED_BYTE, pixelBufferAddr);
2 голосов
/ 14 сентября 2011

Хороший вопрос, Матс. Но на самом деле отступ больше:

bytesPerRow = 4 * bufferWidth + 48;

Отлично работает на задней камере iphone 4, и решил проблему, о которой сообщили sotangochips.

1 голос
/ 02 мая 2017

sessionPresetPhoto - это параметр для съемки фотографии с высочайшим качеством.Когда мы используем AVCaptureStillImageOutput с предустановленной фотографией, кадр, снятый из видеопотока, всегда точно соответствует разрешению экрана iPad или iPhone.У меня была такая же проблема с iPad Pro 12,9 дюйма, который имеет разрешение 2732 * 2048.Это означает, что кадр, который я захватил из видеопотока, был 2732 * 2048, но он всегда искажался и сдвигался.Я пробовал вышеупомянутые решения, но это не решило мою проблему.Наконец, я понял, что ширина рамки всегда должна делиться на 8, а 2732 - нет.2732/8 = 341,5.Так что я сделал, чтобы вычислить модуль ширины и 8. Если модуль не равен нулю, то я добавляю его к ширине.В этом случае 2732% 8 = 4, а затем я получаю 2732 + 4 = 2736. Поэтому я установлю эту ширину кадра в CVPixelBufferCreate, чтобы инициализировать мой pixelBuffer (CVPixelBufferRef).

1 голос
/ 12 ноября 2011

Я думаю, что нашел ваш ответ, и мне жаль, потому что это не очень хорошие новости.

Вы можете проверить эту ссылку: http://developer.apple.com/library/mac/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture.html

Настройка сеанса

Символ: AVCaptureSessionPresetPhoto
Разрешение: Фото.
Комментарии: Полное разрешение фотографии.Это не поддерживается для вывода видео.

1 голос
/ 06 ноября 2011

Декс, спасибо за отличный ответ.Чтобы сделать ваш код более общим, я бы заменил:

if ( [[captureSession sessionPreset] isEqualToString:@"AVCaptureSessionPresetPhoto"] )

на

if ( extraBytes > 0 )
0 голосов
/ 05 июля 2018

Используйте этот размер везде в вашем коде

 int width_16 = (int)yourImage.size.width - (int)yourImage.size.width%16; 
 int height_ = (int)(yourImage.size.height/yourImage.size.width * width_16) ;
 CGSize video_size_ = CGSizeMake(width_16, height_);
0 голосов
/ 29 августа 2011

Буфер изображения, который вы получаете, кажется, содержит некоторые отступы в конце.Например,

bytesPerRow = 4 * bufferWidth + 12;

Это часто делается так, что каждая строка пикселей начинается со смещением 16 байт.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...