适用于iOS的Firebase ML入门

适用于iOS的Firebase ML入门
https://firebase.google.com/products/ml-kit/

昨天,在Google I / O上, Firebase团队以Firebase ML Kit的形式发布了Firebase平台的机器学习功能。 Firebase ML Kit随附了针对常见移动用例的即用型API,包括识别文本,检测面部,扫描条形码,标记图像和识别地标。

Firebase ML Kit可以使用设备API或Cloud API与应用程序集成。 设备上的使用是免费的,云的使用有一个很大的限制。 在本文中,我们将介绍如何创建将与Firebase ML框架和标签图像集成的简单iOS应用。

安装Firebase CocoaPods:

创建Xcode项目后,您需要安装所需的Firebase CocoaPods。 在执行此操作之前,请确保已安装最新版本的CocoaPods。 创建一个pod文件,并指定要安装的pod,如下所示:

适用于iOS的Firebase ML入门

从终端执行pod install命令,该终端将按照Podfile的指定安装pod 安装所需的Pod之后,请确保为项目使用工作区文件,而不是xcodeproj文件。

在Firebase控制台上配置Firebase项目:

为了使用大多数/所有Firebase功能,您必须在Firebase Console上创建一个Firebase项目。 Firebase控制台提供了一个不错的用户界面,您可以在其中创建Firebase项目。 可以将每个Firebase项目配置为使用Firebase平台提供的许多服务。

Firebase安装程序将创建一个GoogleService-Info.plist文件,您可以下载该文件并将其复制到Xcode项目中。 最后,通过在didFinishLaunchingWithOptions函数内调用Firebase.configure()来配置Firebase,如下所示:

适用于iOS的Firebase ML入门

Firebase ML设备上的API:

现在,我们已经设置了Firebase平台,下一步是将其与Firebase ML API集成。 信不信由你,以下是您与Firebase ML On Device API集成所需的全部代码。 我们有一个我们要检测的图像列表。 图像是Xcode项目的一部分,名称存储在数组中。

适用于iOS的Firebase ML入门

视觉实例可以访问labelDetector函数,该函数返回labelDetector。 labelDetector帮助检测与图像关联的标签。 VisionImage类使用UIImage或CMSampleBufferRef创建VisionImage实例。 labelDetector实例调用detect函数,并传入visionImage对象,该对象会导致有关图像的预测或错误。 如果没有错误,则只需使用max函数找到具有最高标签的标签,并将其设置为UILabel的文本。

  • 您不需要运行循环(52–55),我只是显示所有不同的预测以及从Firebase ML收到的预测。

结果如下所示:

适用于iOS的Firebase ML入门

Firebase ML Cloud API:

Firebase ML Cloud API在云上执行图像标签。 这也使它具有一个非常大的数据集的能力,该数据集正在不断更新和完善。

Cloud API的代码与设备上的API非常相似。 唯一的微小变化是我们使用cloudLabelDetector而不是默认的labelDetector ,如下所示:

如果运行上面的代码,您将在控制台中看到错误消息。 错误消息很可能与未设置Firebase ML Cloud帐户有关。 点击链接并设置您的Firebase ML Cloud帐户。 Google会将$ 300存入您的帐户,可在第一年使用。

结果如下所示:

适用于iOS的Firebase ML入门

希望您喜欢这个帖子,编码愉快!

[ 下载示例代码 ]

如果您有兴趣了解有关将Firebase与iOS应用集成的更多信息,请查看下面的课程“ 使用Swift语言为iOS掌握Firebase ”。 谢谢您的支持!

From: https://hackernoon.com/getting-started-with-firebase-ml-for-ios-71e578469367