Я использую AVFramework для захвата кадров камеры, и я хотел бы обработать и отобразить их в UIImageView, но у меня возникли некоторые проблемы.У меня есть код:
// Delegate routine that is called when a sample buffer was written
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
//NSLog(@"Capturing\n");
// Create a UIImage from the sample buffer data
UIImage *image = [self imageFromSampleBuffer:sampleBuffer];
NSLog(@"Image: %f %f\n", image.size.height, image.size.width);
[imageView setImage:image];
}
Однако он не будет отображаться.Правильный размер отображается в NSLog
, и когда я добавляю:
[imageView setImage:[UIImage imageNamed:@"SomethingElse.png"]];
в viewDidLoad, изображение отображается правильно (поэтому я знаю, что UIImageView подключен правильно).
Есть ли причина, по которой это не должно работать ???Я сейчас в растерянности.
Приветствия, Бретт