Как стереть часть изображения, когда пользователь прикасается к ней - PullRequest
4 голосов
/ 05 июня 2010

Моя большая цель - создать серое поле над изображением, а затем, когда пользователь потирает это серое поле, оно обнаруживает изображение под ним. В основном, как лотерея скретч-карты. Я выполнил кучу поиска по документам, а также по этому сайту, но не могу найти решение.

Следующее является лишь доказательством концепции тестирования «стирания» изображения в зависимости от того, где пользователь касается, но оно не работает. (

У меня есть UIView, который обнаруживает касания, а затем отправляет координаты перемещения в UIViewController, который обрезает изображение в UIImageView, выполнив следующие действия:

- (void) moveDetectedFrom:(CGPoint) from to:(CGPoint) to
{
    UIImage* image = bkgdImageView.image;
    CGSize s = image.size;
    UIGraphicsBeginImageContext(s);
    CGContextRef g = UIGraphicsGetCurrentContext();

    CGContextMoveToPoint(g, from.x, from.y);
    CGContextAddLineToPoint(g, to.x, to.y);
    CGContextClosePath(g);
    CGContextAddRect(g, CGRectMake(0, 0, s.width, s.height));
    CGContextEOClip(g);
    [image drawAtPoint:CGPointZero];
    bkgdImageView.image = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();

    [bkgdImageView setNeedsDisplay];
}

Проблема в том, что прикосновения к этому методу отправляются просто отлично, но на оригинале ничего не происходит.

Я делаю путь клипа неправильно? Или же?

Не совсем уверен ... поэтому любая ваша помощь будет принята с благодарностью.

Спасибо заранее, Joel

Ответы [ 2 ]

1 голос
/ 09 июля 2010

Я пытался сделать то же самое много раз назад, используя только Core Graphics, и это можно сделать, но, поверьте мне, эффект не такой плавный и мягкий, как этого ожидает пользователь. Итак, я знал, как работать с OpenCV (Open Computer Vision Library), и как он был написан на C, я знал, что могу это сделать на iPhone. Делать то, что вы хотите делать с OpenCV, очень легко. Сначала вам понадобится пара функций для преобразования UIImage в IplImage, который является типом, используемым в OpenCV для представления изображений всех видов, и другим способом.

+ (IplImage *)CreateIplImageFromUIImage:(UIImage *)image {
CGImageRef imageRef = image.CGImage;
//This is the function you use to convert a UIImage -> IplImage
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

IplImage *iplimage = cvCreateImage(cvSize(image.size.width, image.size.height), IPL_DEPTH_8U, 4);
CGContextRef contextRef = CGBitmapContextCreate(iplimage->imageData, iplimage->width, iplimage->height,
                                                iplimage->depth, iplimage->widthStep,
                                                colorSpace, kCGImageAlphaPremultipliedLast|kCGBitmapByteOrderDefault);
CGContextDrawImage(contextRef, CGRectMake(0, 0, image.size.width, image.size.height), imageRef);


CGContextRelease(contextRef);

CGColorSpaceRelease(colorSpace);

return iplimage;}



+ (UIImage *)UIImageFromIplImage:(IplImage *)image {

//Convert a IplImage -> UIImage
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
NSData * data = [[NSData alloc] initWithBytes:image->imageData length:image->imageSize];
//NSData *data = [NSData dataWithBytes:image->imageData length:image->imageSize];
CGDataProviderRef provider = CGDataProviderCreateWithCFData((CFDataRef)data);
CGImageRef imageRef = CGImageCreate(image->width, image->height,
                                    image->depth, image->depth * image->nChannels, image->widthStep,
                                    colorSpace, kCGImageAlphaPremultipliedLast|kCGBitmapByteOrderDefault,
                                    provider, NULL, false, kCGRenderingIntentDefault);
UIImage *ret = [[UIImage alloc] initWithCGImage:imageRef];
CGImageRelease(imageRef);
CGDataProviderRelease(provider);
CGColorSpaceRelease(colorSpace);
[data release];
return ret;}

Теперь, когда у вас есть обе основные функции, которые вам нужны, вы можете делать с IplImage все, что захотите: это то, что вы хотите:

+(UIImage *)erasePointinUIImage:(IplImage *)image :(CGPoint)point :(int)r{
//r is the radious of the erasing
    int a = point.x;
 int b = point.y;
 int position;
 int minX,minY,maxX,maxY;
 minX = (a-r>0)?a-r:0;
 minY = (b-r>0)?b-r:0;
 maxX = ((a+r) < (image->width))? a+r : (image->width);
 maxY = ((b+r) < (image->height))? b+r : (image->height);

 for (int i = minX; i < maxX ; i++)
 {
    for(int j=minY; j<maxY;j++)
    {
        position =  ((j-b)*(j-b))+((i-a)*(i-a));
        if (position <= r*r)
        {
            uchar* ptr =(uchar*)(image->imageData) + (j*image->widthStep + i*image->nChannels);
            ptr[1] = ptr[2] = ptr[3] = ptr[4] = 0;
        }
    }
}
UIImage * res = [self UIImageFromIplImage:image]; 
return res;}

Извините за форматирование.

Если вы хотите узнать, как портировать OpenCV на iPhone Yoshimasa Niwa's

Если вы хотите проверить приложение, в настоящее время работающее с OpenCV, в AppStore, получите: Флаги и лица

1 голос
/ 05 июня 2010

Обычно вы хотите рисовать в текущем графическом контексте внутри метода drawRect:, а не просто в любом старом методе. Кроме того, область клипа влияет только на то, что рисуется в текущем графическом контексте. Но вместо того, чтобы понять, почему этот подход не работает, я бы предложил сделать это по-другому.

То, что я бы сделал, это два взгляда. Один с изображением, а другой с серым цветом, который сделан прозрачным. Это позволяет графическому оборудованию кэшировать изображение, а не пытаться перерисовывать изображение каждый раз, когда вы изменяете серую заливку.

Серый будет подклассом UIView с CGBitmapContext, в который вы будете рисовать, чтобы сделать пиксели, к которым пользователь касается, четкими.

Возможно, есть несколько способов сделать это. Я просто предлагаю один способ выше.

...