Google 发布 TensorFlow 物体检测 API,帮助开发人员和研究人员识别图片中的物体。Google 专注于提高 API 的易用性和性能,新的模型于 6 月 16 号发布,在基准测试中表现出良好的性能,并已经开始应用于研究工作当中。
物体检测 API 包含了高度依赖 Inception 的卷积神经网络和简化模型,这些模型可以运行在简单的机器上。比如,MobileNets 单次检测器经过优化,能够以实时的方式运行在智能手机上。
早前,Google 发布了轻量级的 MobileNets 计算机视觉模型家族,这些模型可以用于执行各种任务,如物体检测、面部识别和地标识别。
智能手机无法像台式机或基于服务器的环境那样处理计算资源,所以开发人员只有两种选择。机器学习模型可以运行在云端,但这样会增加延迟,而且要求使用网络连接——在很多情况下,这不是一种很好的解决方案。另一种方案是简化模型,这样就可以随心随欲地把它们署在设备上。
Google、Facebook 和 Apple 已经在这些移动模型上投入了很多资源。去年秋天,Facebook 发布了 Caffe2Go 框架,用于构建可在智能手机上运行的模型,而 Facebook 自己的 Style Transfer 就是第一个使用了该框架的项目。在今年的I/O大会上,Google 发布了 TensorFlow Lite,它是一种简化版的机器学习框架。而在刚刚结束不久的 WWDC 大会上,Apple 发布了 CoreML,CoreML 旨在降低在 iOS 设备上运行机器学习模型的难度。
当然,因为 Google 公有云服务的关系,它与 Facebook 和 Apple 之间有一些差异化的定位,而且这不是 Google 第一次发布计算机视觉服务,比如之前的 Cloud Vision API。
新发布的 TensorFlow 物体检测 API 可以在 GitHub 上找到。Google 希望能够把它做得容易上手和实现,于是把整个工具套件都打成包,里面还包含了 Jupyter Notebook。