ALAssetRepresentationでXMPメタデータを解釈する


95

ユーザーがiOSの組み込みPhotos.appで写真にいくつかの変更(トリミング、赤目除去など)を行った場合、変更はfullResolutionImage対応するによって返されたには適用されませんALAssetRepresentation

ただし、変更はに適用されるthumbnailと、fullScreenImageによって返されましたALAssetRepresentation。さらに、適用された変更に関する情報ALAssetRepresentationは、キーを介してのメタデータディクショナリにあります@"AdjustmentXMP"

これらの変更をfullResolutionImage自分に適用して、一貫性を維持したいと思います。私は上のことが分かってきましたiOS6 + CIFilterfilterArrayFromSerializedXMP: inputImageExtent:error:このXMPメタデータはの配列に変換することができCIFilter、S ':

ALAssetRepresentation *rep; 
NSString *xmpString = rep.metadata[@"AdjustmentXMP"];
NSData *xmpData = [xmpString dataUsingEncoding:NSUTF8StringEncoding];

CIImage *image = [CIImage imageWithCGImage:rep.fullResolutionImage];

NSError *error = nil;
NSArray *filterArray = [CIFilter filterArrayFromSerializedXMP:xmpData 
                                             inputImageExtent:image.extent 
                                                        error:&error];
if (error) {
     NSLog(@"Error during CIFilter creation: %@", [error localizedDescription]);
}

CIContext *context = [CIContext contextWithOptions:nil];

for (CIFilter *filter in filterArray) {
     [filter setValue:image forKey:kCIInputImageKey];
     image = [filter outputImage];
}

ただし、これは一部のフィルター(トリミング、自動補正)でのみ機能し、赤目除去などのフィルターでは機能しません。これらの場合、はCIFilter目に見える効果はありません。したがって、私の質問:

  • 赤目除去を作成する方法を知っている人はいCIFilterますか?(Photos.appと一貫性があります。キーを持つフィルターkCIImageAutoAdjustRedEyeは十分ではありません。たとえば、目の位置のパラメーターを受け取りません。)
  • iOS 5でこれらのフィルターを生成して適用する可能性はありますか?

このリンクは、赤目アルゴリズムを提供する別のStackoverflow質問へのリンクです。それは多くはありませんが、それは始まりです。stackoverflow.com/questions/133675/red-eye-reduction-algorithm
Roecrew

iOS 7では、リストされているコードは赤目除去フィルター(CIRedEyeCorrections内部フィルター)を正しく適用します。
paiv 14年

回答:


2
ALAssetRepresentation* representation = [[self assetAtIndex:index] defaultRepresentation];

// Create a buffer to hold the data for the asset's image
uint8_t *buffer = (Byte*)malloc(representation.size); // Copy the data from the asset into the buffer
NSUInteger length = [representation getBytes:buffer fromOffset: 0.0  length:representation.size error:nil];

if (length==0)
    return nil;

// Convert the buffer into a NSData object, and free the buffer after.

NSData *adata = [[NSData alloc] initWithBytesNoCopy:buffer length:representation.size freeWhenDone:YES];

// Set up a dictionary with a UTI hint. The UTI hint identifies the type
// of image we are dealing with (that is, a jpeg, png, or a possible
// RAW file).

// Specify the source hint.

NSDictionary* sourceOptionsDict = [NSDictionary dictionaryWithObjectsAndKeys:

(id)[representation UTI], kCGImageSourceTypeIdentifierHint, nil];

// Create a CGImageSource with the NSData. A image source can
// contain x number of thumbnails and full images.

CGImageSourceRef sourceRef = CGImageSourceCreateWithData((CFDataRef) adata,  (CFDictionaryRef) sourceOptionsDict);

[adata release];

CFDictionaryRef imagePropertiesDictionary;

// Get a copy of the image properties from the CGImageSourceRef.

imagePropertiesDictionary = CGImageSourceCopyPropertiesAtIndex(sourceRef,0, NULL);

CFNumberRef imageWidth = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelWidth);

CFNumberRef imageHeight = (CFNumberRef)CFDictionaryGetValue(imagePropertiesDictionary, kCGImagePropertyPixelHeight);

int w = 0;

int h = 0;

CFNumberGetValue(imageWidth, kCFNumberIntType, &w);

CFNumberGetValue(imageHeight, kCFNumberIntType, &h);

// Clean up memory

CFRelease(imagePropertiesDictionary);
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.