Я пытаюсь написать процедуру, которая принимает UIImage и возвращает новый UIImage, который содержит только лицо.Это может показаться очень простым, но у моего мозга возникают проблемы с обходом пространства CoreImage и UIImage.
Вот основы:
- (UIImage *)imageFromImage:(UIImage *)image inRect:(CGRect)rect {
CGImageRef sourceImageRef = [image CGImage];
CGImageRef newImageRef = CGImageCreateWithImageInRect(sourceImageRef, rect);
UIImage *newImage = [UIImage imageWithCGImage:newImageRef];
CGImageRelease(newImageRef);
return newImage;
}
-(UIImage *)getFaceImage:(UIImage *)picture {
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:nil
options:[NSDictionary dictionaryWithObject: CIDetectorAccuracyHigh forKey: CIDetectorAccuracy]];
CIImage *ciImage = [CIImage imageWithCGImage: [picture CGImage]];
NSArray *features = [detector featuresInImage:ciImage];
// For simplicity, I'm grabbing the first one in this code sample,
// and we can all pretend that the photo has one face for sure. :-)
CIFaceFeature *faceFeature = [features objectAtIndex:0];
return imageFromImage:picture inRect:faceFeature.bounds;
}
Изображение, которое возвращается изперевернутое изображение.Я попытался настроить faceFeature.bounds
, используя что-то вроде этого:
CGAffineTransform t = CGAffineTransformMakeScale(1.0f,-1.0f);
CGRect newRect = CGRectApplyAffineTransform(faceFeature.bounds,t);
... но это дает мне результаты вне изображения.
Я уверен, что есть что-то простое, чтобы это исправить, но если не считать вычисления снизу-вниз и затем создать новый прямоугольник, используя его в качестве X, есть ли «правильный» способ сделать это?
Спасибо!