Я стандартизирую ориентацию и максимальный размер изображения, используя следующий код (полученный из других источников):
+ (UIImage *)scaleAndRotateImage:(UIImage *)image
{
int kMaxResolution = 960; // Or whatever
CGImageRef imgRef = image.CGImage;
CGFloat width = CGImageGetWidth(imgRef);
CGFloat height = CGImageGetHeight(imgRef);
CGAffineTransform transform = CGAffineTransformIdentity;
CGRect bounds = CGRectMake(0, 0, width, height);
if (width > kMaxResolution || height > kMaxResolution) {
CGFloat ratio = width/height;
if (ratio > 1) {
bounds.size.width = kMaxResolution;
bounds.size.height = bounds.size.width / ratio;
}
else {
bounds.size.height = kMaxResolution;
bounds.size.width = bounds.size.height * ratio;
}
}
CGFloat scaleRatio = bounds.size.width / width;
CGSize imageSize = CGSizeMake(CGImageGetWidth(imgRef), CGImageGetHeight(imgRef));
CGFloat boundHeight;
UIImageOrientation orient = image.imageOrientation;
switch(orient) {
case UIImageOrientationUp: //EXIF = 1
transform = CGAffineTransformIdentity;
break;
case UIImageOrientationUpMirrored: //EXIF = 2
transform = CGAffineTransformMakeTranslation(imageSize.width, 0.0);
transform = CGAffineTransformScale(transform, -1.0, 1.0);
break;
case UIImageOrientationDown: //EXIF = 3
transform = CGAffineTransformMakeTranslation(imageSize.width, imageSize.height);
transform = CGAffineTransformRotate(transform, M_PI);
break;
case UIImageOrientationDownMirrored: //EXIF = 4
transform = CGAffineTransformMakeTranslation(0.0, imageSize.height);
transform = CGAffineTransformScale(transform, 1.0, -1.0);
break;
case UIImageOrientationLeftMirrored: //EXIF = 5
boundHeight = bounds.size.height;
bounds.size.height = bounds.size.width;
bounds.size.width = boundHeight;
transform = CGAffineTransformMakeTranslation(imageSize.height, imageSize.width);
transform = CGAffineTransformScale(transform, -1.0, 1.0);
transform = CGAffineTransformRotate(transform, 3.0 * M_PI / 2.0);
break;
case UIImageOrientationLeft: //EXIF = 6
boundHeight = bounds.size.height;
bounds.size.height = bounds.size.width;
bounds.size.width = boundHeight;
transform = CGAffineTransformMakeTranslation(0.0, imageSize.width);
transform = CGAffineTransformRotate(transform, 3.0 * M_PI / 2.0);
break;
case UIImageOrientationRightMirrored: //EXIF = 7
boundHeight = bounds.size.height;
bounds.size.height = bounds.size.width;
bounds.size.width = boundHeight;
transform = CGAffineTransformMakeScale(-1.0, 1.0);
transform = CGAffineTransformRotate(transform, M_PI / 2.0);
break;
case UIImageOrientationRight: //EXIF = 8
boundHeight = bounds.size.height;
bounds.size.height = bounds.size.width;
bounds.size.width = boundHeight;
transform = CGAffineTransformMakeTranslation(imageSize.height, 0.0);
transform = CGAffineTransformRotate(transform, M_PI / 2.0);
break;
default:
[NSException raise:NSInternalInconsistencyException format:@"Invalid image orientation"];
}
UIGraphicsBeginImageContext(bounds.size);
CGContextRef context = UIGraphicsGetCurrentContext();
if (orient == UIImageOrientationRight || orient == UIImageOrientationLeft) {
CGContextScaleCTM(context, -scaleRatio, scaleRatio);
CGContextTranslateCTM(context, -height, 0);
}
else {
CGContextScaleCTM(context, scaleRatio, -scaleRatio);
CGContextTranslateCTM(context, 0, -height);
}
CGContextConcatCTM(context, transform);
CGContextDrawImage(UIGraphicsGetCurrentContext(), CGRectMake(0, 0, width, height), imgRef);
UIImage *imageCopy = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return imageCopy;
}
Этот код корректно возвращает UIImage с вращением, преобразованным в UIImageOrientationUp, и изображение, возможно, уменьшенное, еслион превысил максимальный размер изображения.Этот код прекрасно работает для отображения UIImage в UIView.
Однако моя проблема возникает на следующем шаге, если я возьму этот новый UIImage и извлеку его содержимое CGImage в контекст растрового изображения.
CGImageRef inImage = inputImage.CGImage;
// create data object for direct pixel manipulation
CFDataRef m_DataRef;
m_DataRef = CGDataProviderCopyData(CGImageGetDataProvider(inImage));
UInt8 * m_PixelBuf = (UInt8 *) CFDataGetBytePtr(m_DataRef);
//create initial context for drawing on the eyelids
CGContextRef ctx = CGBitmapContextCreate(m_PixelBuf,
CGImageGetWidth( inImage ),
CGImageGetHeight( inImage ),
8,
CGImageGetBytesPerRow( inImage ),
CGImageGetColorSpace( inImage ),
CGImageGetAlphaInfo( inImage ) );
А затем преобразовать его обратно в UIImage все цвета не так.Я проверил CGImageGetAlphaInfo, который он получал от inImage, чтобы установить контекст, который был установлен в kCGImageAlphaPremultipliedFirst, и если я заставил AlphaInfo быть kCGImageAlphaPremultipliedLast, я мог бы по крайней мере увидеть изображение, но красный, очевидно, показывал синий.Наконец, я обнаружил, что данные RGBA в растровом изображении были транспонированы в ABGR, и, создав цикл для транспонирования порядка байтов обратно в RGBA, я обнаружил, что могу снова воссоздать правильный UIImage, используя контекст, созданный из CGImage.
Только когда я прохожу метод масштабирования и вращения, у меня возникает проблема ABGR.Насколько я понимаю, я должен быть в состоянии преобразовать UIImage в CGbitmapContext и обратно, используя его собственные метаданные в качестве параметров контекста, чтобы получить точно такое же изображение.
Мои вопросы: Почему изменился порядок байтов пикселей растрового изображенияв ABGR?Как метаданные CGImage стали испорченными, что я не могу воссоздать CGImage непосредственно из BitmapContext, созданного из себя?
Заранее спасибо!