Core Image编程指南翻译三(面部检测)

示例代码下载

Core Image可以分析和查找图像中的人脸。它执行面部检测,而不是识别。人脸检测是包含人脸特征的矩形的识别,而人脸识别是特定人脸(约翰,玛丽等)的识别。在Core Image检测到面部后,它可以提供有关面部特征的信息,例如眼睛和嘴巴位置。它还可以跟踪视频中已识别面部的位置。
Core Image编程指南翻译三(面部检测)

了解人脸在图像中的位置可让您执行其他操作,例如裁剪或调整脸部图像质量(色调平衡,红眼校正等)。您还可以在脸上执行其他有趣的操作; 例如:

  • 匿名面部滤镜处理显示如何仅将像素滤镜应用于图像中的面部。
  • 白色插图面部滤镜处理显示如何在脸部周围放置小插图。

注意: 面部检测适用于iOS v5.0及更高版本以及OS X v10.7及更高版本。

面部检测

使用CIDetector该类在图像中查找面部,如清单2-1所示。

清单2-1 创建面部检测器

CIContext *context = [CIContext context];                    // 1
NSDictionary *opts = @{ CIDetectorAccuracy : CIDetectorAccuracyHigh };      // 2
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
                                          context:context
                                          options:opts];                    // 3
 
opts = @{ CIDetectorImageOrientation :
          [[myImage properties] valueForKey:kCGImagePropertyOrientation] }; // 4
NSArray *features = [detector featuresInImage:myImage options:opts];        // 5

这是代码的作用:

  1. 使用默认选项创建上下文。您可以使用处理图像中描述的任何函数创建上下文。您还可以在创建检测器时选择nil而不是提供上下文。
  2. 创建选项字典以指定检测器的准确度。您可以指定低精度或高精度。精度低(CIDetectorAccuracyLow)快; 如本例所示,高精度是周密但较慢的。
  3. 创建面部检测器。您可以创建探测器的唯一类型是人脸。
  4. 设置用于查找面的选项字典。让Core Image了解图像方向非常重要,这样探测器才能知道它可以在哪里找到直立面。大多数情况下,您将从图像本身读取图像方向,然后将该值提供给选项字典。
  5. 使用检测器查找图像中的特征。您提供的图像必须是CIImage对象。Core Image返回一个CIFeature对象数组,每个对象代表图像中的一个面。

在获得一系列面孔后,您可能想要找出它们的特征,例如眼睛和嘴巴的位置。接下来的部分将介绍。

获得面部和面部特征位置
面部特征包括:

  • 左眼和右眼的位置
  • 嘴巴的位置
  • 跟踪ID和跟踪帧数,Core Image用于跟踪视频片段中的脸部(适用于iOS v6.0及更高版本以及OS X v10.8及更高版本)
    从CIDetector对象获取面部特征数组后,可以遍历数组以检查每个面部的位置以及面部中的每个特征,如清单2-2所示。

清单2-2 检查面部特征边界

for (CIFaceFeature *f in features) {
    NSLog(@"%@", NSStringFromRect(f.bounds));
 
    if (f.hasLeftEyePosition) {
        NSLog(@"Left eye %g %g", f.leftEyePosition.x, f.leftEyePosition.y);
    }
    if (f.hasRightEyePosition) {
        NSLog(@"Right eye %g %g", f.rightEyePosition.x, f.rightEyePosition.y);
    }
    if (f.hasMouthPosition) {
        NSLog(@"Mouth %g %g", f.mouthPosition.x, f.mouthPosition.y);
    }
}