ОБНОВЛЕНИЕ:
Изображения, которые проецируются на MKMapView с использованием MKOverlayView, используют проекцию Mercator , тогда как изображение, которое я использую в качестве входных данных, использует проекцию WGS84. Есть ли способ преобразовать входное изображение в правую проекцию WGS84 -> Mercator, не разбивая изображение на части и можно ли это сделать на лету?
Обычно вы можете преобразовать изображение в правильную проекцию, используя программу gdal2tiles .
Однако входные данные меняются каждые пятнадцать минут, поэтому изображение необходимо преобразовывать каждые пятнадцать минут. Таким образом, преобразование должно быть сделано на лету. Я также хочу, чтобы мозаика выполнялась Mapkit, а не я сам, используя gdal2tiles или GDAL framework.
ОБНОВЛЕНИЕ КОНЕЦ
В настоящее время я работаю над проектом, который отображает радар дождя в некоторой части мира. Радарное изображение предоставлено EUMETSAT, они предлагают файл KML, который можно загрузить в Google Earth или Google Maps. Если я загружаю KML-файл в Google Maps, он отображается идеально, но если я рисую изображение с помощью MKOverlayView на MKMapView, изображение слегка увеличивается.
Например, с левой стороны, Google Maps и с правой стороны то же изображение отображается в MKMapView.
Поверхность, которую покрывает изображение, можно просматривать на Google Maps , спутник, который используется для изображения, - это спутник "Meteosat 0 Degree".
Поверхность, которую покрывают оба изображения, имеет одинаковый размер, это LatLonBox из файла KML, он указывает, где выровнены верхняя, нижняя, правая и левая стороны ограничительной рамки для наземного наложения.
<LatLonBox id="GE_MET0D_VP-MPE-latlonbox">
<north>57.4922</north>
<south>-57.4922</south>
<east>57.4922</east>
<west>-57.4922</west>
<rotation>0</rotation>
</LatLonBox>
Я создаю новый пользовательский объект MKOverlay с именем RadarOverlay с этими параметрами,
[[RadarOverlay alloc] initWithImageData:[[self.currentRadarData objectAtIndex:0] valueForKey:@"Image"] withLowerLeftCoordinate:CLLocationCoordinate2DMake(-57.4922, -57.4922) withUpperRightCoordinate:CLLocationCoordinate2DMake(57.4922, 57.4922)];
Реализация пользовательского объекта MKOverlay; RadarOverlay
- (id) initWithImageData:(NSData*) imageData withLowerLeftCoordinate:(CLLocationCoordinate2D)lowerLeftCoordinate withUpperRightCoordinate:(CLLocationCoordinate2D)upperRightCoordinate
{
self.radarData = imageData;
MKMapPoint lowerLeft = MKMapPointForCoordinate(lowerLeftCoordinate);
MKMapPoint upperRight = MKMapPointForCoordinate(upperRightCoordinate);
mapRect = MKMapRectMake(lowerLeft.x, upperRight.y, upperRight.x - lowerLeft.x, lowerLeft.y - upperRight.y);
return self;
}
- (CLLocationCoordinate2D)coordinate
{
return MKCoordinateForMapPoint(MKMapPointMake(MKMapRectGetMidX(mapRect), MKMapRectGetMidY(mapRect)));
}
- (MKMapRect)boundingMapRect
{
return mapRect;
}
Реализация пользовательского MKOverlayView, RadarOverlayView
- (void)drawMapRect:(MKMapRect)mapRect zoomScale:(MKZoomScale)zoomScale inContext:(CGContextRef)context
{
RadarOverlay* radarOverlay = (RadarOverlay*) self.overlay;
UIImage *image = [[UIImage alloc] initWithData:radarOverlay.radarData];
CGImageRef imageReference = image.CGImage;
MKMapRect theMapRect = [self.overlay boundingMapRect];
CGRect theRect = [self rectForMapRect:theMapRect];
CGRect clipRect = [self rectForMapRect:mapRect];
NSUserDefaults *preferences = [NSUserDefaults standardUserDefaults];
CGContextSetAlpha(context, [preferences floatForKey:@"RadarTransparency"]);
CGContextAddRect(context, clipRect);
CGContextClip(context);
CGContextDrawImage(context, theRect, imageReference);
[image release];
}
Когда я загружаю изображение, я переворачиваю изображение, чтобы его можно было легко нарисовать в MKOverlayView
size_t width = (CGImageGetWidth(imageReference) / self.scaleFactor);
size_t height = (CGImageGetHeight(imageReference) / self.scaleFactor);
// Calculate colorspace for the specified image
CGColorSpaceRef imageColorSpace = CGImageGetColorSpace(imageReference);
// Allocate and clear memory for the data of the image
unsigned char *imageData = (unsigned char*) malloc(height * width * 4);
memset(imageData, 0, height * width * 4);
// Define the rect for the image
CGRect imageRect;
if(image.imageOrientation==UIImageOrientationUp || image.imageOrientation==UIImageOrientationDown)
imageRect = CGRectMake(0, 0, width, height);
else
imageRect = CGRectMake(0, 0, height, width);
// Create the imagecontext by defining the colorspace and the address of the location to store the data
CGContextRef imageContext = CGBitmapContextCreate(imageData, width, height, 8, width * 4, imageColorSpace, kCGImageAlphaPremultipliedLast);
CGContextSaveGState(imageContext);
// Scale the image to the opposite orientation so it can be easylier drawn with CGContectDrawImage
CGContextTranslateCTM(imageContext, 0, height);
CGContextScaleCTM(imageContext, 1.0, -1.0);
if(image.imageOrientation==UIImageOrientationLeft)
{
CGContextRotateCTM(imageContext, M_PI / 2);
CGContextTranslateCTM(imageContext, 0, -width);
}
else if(image.imageOrientation==UIImageOrientationRight)
{
CGContextRotateCTM(imageContext, - M_PI / 2);
CGContextTranslateCTM(imageContext, -height, 0);
}
else if(image.imageOrientation==UIImageOrientationDown)
{
CGContextTranslateCTM(imageContext, width, height);
CGContextRotateCTM(imageContext, M_PI);
}
// Draw the image in the context
CGContextDrawImage(imageContext, imageRect, imageReference);
CGContextRestoreGState(imageContext);
После того, как я перевернул изображение, я манипулирую им и сохраняю в памяти как объект NSData.
Похоже, что изображение растянуто, но оно выглядит хорошо в центре изображения, который находится на экваторе.