Преобразовать из CMSampleBuffer в объект UIImage - PullRequest
1 голос
/ 13 апреля 2011

Я попробовал пример для захвата видеокадров с камеры в качестве изображений с использованием AV Foundation, который приведен в документации, т.е.

http://developer.apple.com/library/ios/#qa/qa1702/_index.html

Но в методе делегата, чтобы получитьобъект UIImage из CMSampleBufferRef, который данный метод не создает.

Означает, что я также импортировал инфраструктуру AVFoundation, но он дает 14 ошибок, таких как _CVPixelBufferUnlockBaseAddress, на которые ссылается:*

Если кто-нибудь знает, как решить, пожалуйста, помогите мне.

Заранее спасибо. Пожалуйста, если кто-нибудь знает, сообщите мне.

Ответы [ 4 ]

2 голосов
/ 23 июня 2011

Это код для захвата и получения изображения из захваченных данных:

-(IBAction)startCapture
{
    //session object
    captureSession = [[AVCaptureSession alloc]init];
    captureSession.sessionPreset = AVCaptureSessionPresetMedium;

    AVCaptureVideoPreviewLayer *previewLayer = [AVCaptureVideoPreviewLayer layerWithSession:captureSession];
    previewLayer.frame = CGRectMake(0, 10, 320, 200); ////self.view.frame; //
    [self.view.layer addSublayer:previewLayer];

    NSError *error = nil;
    AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];

    //input object
    AVCaptureDeviceInput *inputDevice = [[AVCaptureDeviceInput alloc]initWithDevice:device error:&error];
    [captureSession addInput:inputDevice];

    stillImageOutput = [[AVCaptureStillImageOutput alloc] init];
    NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG, AVVideoCodecKey, nil];
    [stillImageOutput setOutputSettings:outputSettings];

    [captureSession addOutput:stillImageOutput];
    [captureSession startRunning];
}

-(IBAction) captureNow
{
    AVCaptureConnection *videoConnection = nil;
    for (AVCaptureConnection *connection in stillImageOutput.connections)
    {
        for (AVCaptureInputPort *port in [connection inputPorts])
        {
            if ([[port mediaType] isEqual:AVMediaTypeVideo] )
            {
                videoConnection = connection;
                break;
            }
        }
        if (videoConnection) { break; }
    }

    NSLog(@"about to request a capture from: %@", stillImageOutput);
    [stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler: ^(CMSampleBufferRef imageSampleBuffer, NSError *error)
     {
         CFDictionaryRef exifAttachments = CMGetAttachment( imageSampleBuffer, kCGImagePropertyExifDictionary, NULL);

         NSLog(@"exif Attachments:%@",exifAttachments);
         if (exifAttachments)
         {
             NSData *imageData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageSampleBuffer];

             UIImage *image = [[UIImage alloc] initWithData:imageData];
             self.vImage.image = image;
             // Do something with the attachments.

         }
         else
             NSLog(@"no attachments");   
     }];
}
0 голосов
/ 23 августа 2011

необходимо импортировать CoreMedia.framework и CoreVideo.framework

0 голосов
/ 15 апреля 2011

Чтобы сохранить в библиотеке после того, как assetWriter закончит запись фильма / захват изображения.

Поместите это сверху над файлом реализации * Это пример сохранения видеофайла, но вы можете изменить эточтобы сохранить ваше изображение:

ALAssetsLibraryWriteVideoCompletionBlock _videoCompblock = ^(NSURL *assetURL, NSError *error){
if(assetURL){
    NSLog(@"Saved to camera roll with Video AssetUrl : %@", [assetURL absoluteString]);
    NSError *error;

    NSFileManager *fileManager = [NSFileManager defaultManager];
    NSDictionary *attributes = [fileManager attributesOfItemAtPath:[assetURL absoluteString] error:&error];

    if (attributes){
        long fileSize = [[attributes objectForKey:NSFileSize] longValue];// unsigned long long
        NSLog(@"%d", fileSize);
    }

}else if(error){
    NSLog(@"The Error occured : %@", [error localizedDescription]);
}

};

Затем вам понадобится функция, которая использует вышеупомянутый блок - поэтому, когда вы записываете сеанс заканчивает запись, есть что-то вроде этого:

-(void) stopRecording{
writing = NO;
isRecording = NO;
[audioInput markAsFinished];//if you have an audio writer stop it too
[videoInput markAsFinished];
[assetWriter endSessionAtSourceTime:[frTimer currentTimeStamp]];
[assetWriter finishWriting];

finished = YES;

[videoUtilities saveToCamera:[assetWriter outputURL]];
NSLog(@"%@", [[assetWriter outputURL] absoluteString]);

}

, который запускает функцию сохранения в камеру, которая будет выглядеть примерно так:

+(void) saveToCamera:(NSURL *)urlPath{

ALAssetsLibrary *library = [[ALAssetsLibrary alloc] init];

AVAsset *movFile = [AVURLAsset URLAssetWithURL:urlPath options:nil];
NSLog(@"Movie File %@", movFile);

BOOL isSupported = [library videoAtPathIsCompatibleWithSavedPhotosAlbum:urlPath];

if(isSupported){
    NSLog(@"IS SUPPORTED - SAVING TO CAMERA ROLL");
    [library writeVideoAtPathToSavedPhotosAlbum:urlPath completionBlock:_videoCompblock];

}

}

Если вы пытаетесь отобразить сохраненное изображениев реальном времени, как вы это делаете - вам нужно скопировать UIImageData в объект UIImage при съемке фотографии - и назначить его в качестве изображения для UIImageView.Или вы можете просто перечислить библиотеку asset и вывести ее оттуда.

Надеюсь, это поможет,

Cheers,

Michael

0 голосов
/ 13 апреля 2011

Какова ваша конечная цель - вы пытаетесь записать видео в видеофайл.Или просто захватить конкретные кадры?У меня есть рабочий пример захвата видеофайла со звуком с помощью AVCaptureSession, если это поможет, я могу опубликовать некоторые фрагменты кода - но, учитывая, что в нем задействовано несколько битов и бобов, я хотел бы знать конкретно, что вы пытаетесь сделать.

Ура,

Майкл

...