Я пытаюсь сделать некоторую обработку изображения на iPhone. Я использую http://developer.apple.com/library/ios/#qa/qa2010/qa1702.html для захвата кадров камеры.
Моя проблема в том, что когда я пытаюсь получить доступ к захваченному буферу, FPS камеры падает с 30 до 20. Кто-нибудь знает, как я могу это исправить?
Я использую самое низкое качество захвата, которое я мог найти (AVCaptureSessionPresetLow = 192x144) в формате kCVPixelFormatType_32BGRA. Если кто-нибудь знает более низкое качество, которое я мог бы использовать, я готов попробовать.
Когда я делаю такой же доступ к изображениям на других платформах, таких как Symbian, он работает нормально.
Вот мой код:
#pragma mark -
#pragma mark AVCaptureSession delegate
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
{
/*We create an autorelease pool because as we are not in the main_queue our code is
not executed in the main thread. So we have to create an autorelease pool for the thread we are in*/
NSAutoreleasePool * pool = [[NSAutoreleasePool alloc] init];
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
//Lock the image buffer
if (CVPixelBufferLockBaseAddress(imageBuffer, 0) == kCVReturnSuccess)
{
// calculate FPS and display it using main thread
[self performSelectorOnMainThread:@selector(updateFps:) withObject: (id) nil waitUntilDone:NO];
UInt8 *base = (UInt8 *)CVPixelBufferGetBaseAddress(imageBuffer); //image buffer start address
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
int size = (height*width);
UInt8* pRGBtmp = m_pRGBimage;
/*
Here is the problem; m_pRGBimage is RGB image I want to process.
In the 'for' loop I convert the image from BGRA to RGB. As a resault, the FPS drops to 20.
*/
for (int i=0;i<size;i++)
{
pRGBtmp[0] = base[2];
pRGBtmp[1] = base[1];
pRGBtmp[2] = base[0];
base = base+4;
pRGBtmp = pRGBtmp+3;
}
// Display received action
[self performSelectorOnMainThread:@selector(displayAction:) withObject: (id) nil waitUntilDone:NO];
//[self displayAction:&eyePlayOutput];
//saveFrame( imageBuffer );
//unlock the image buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
}
[pool drain];
}
В качестве продолжения ответов мне нужно обработать изображение в реальном времени, оно отображается.
Я заметил, что когда я использую AVCaptureSessionPresetHigh, самое простое, что я делаю, например:
for (int i=0;i<size;i++)
x = base[0];
вызывает снижение частоты кадров до 4-5 кадров в секунду. Я думаю, потому что изображение такого размера не кэшируется.
В основном мне нужно изображение 96х48. Есть ли простой способ уменьшить выходное изображение с камеры, способ, использующий аппаратное ускорение, чтобы я мог работать с маленьким?