侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

一文读懂苹果和Google的人工智能理念、布局和预期

2016-07-29 12:03
退思
关注

  你想退出应用吗?

  为了节省空间你想删哪些照片?

  但也有一些新的问题出现:

  你想看哪一位朋友的状态更新?

  要不要看看你在旅行时拍的照片?

  你想吃什么口味的冰淇淋?

  上述问题的变化更像是从简单的「yes/no」的二元回答转向更多元的回答,这背后就是计算的改进。从这个角度出发去观察苹果与Google在人工智能领域的历史、现状与未来,有助于从根本上建构对于苹果、Google以及人工智能现状的新理解。

  苹果的「设备智能」

  2016年的苹果开发者大会(WWDC)有诸多值得回味的点,从中可以一窥苹果在人工智能方面的思考。长期以来,苹果对于人工智能的定位都是「设备智能」——这是一种将人工智能技术纳入到硬件的处理方式,从最早的Siri到现在的iOS10里的图片自动识别和分类机制,事实上,苹果的识别和分类技术并不差,2015年9月,苹果收购人工智能初创公司Perceptio,该公司可以在无需外部数据库的情况下,基于设备(手机、平板)来进行图像分类。

  新iOS10的照片应用可以自动识别人脸、物体,并能够相册里的人物自动分类,新加入的「回忆」,则可以通过对照片的位置信息、人脸照片信息、场景信息等聚集在一起,还支持插入音乐。与此同时,开发者还在iOS10测试版中发现了关于人脸识别功能的其他信息,比如大量关于人脸表情的代码,包括微笑、惊恐、惊喜、哭泣、沉思等等,这意味着iOS10未来很可能支持识别照片里人物的表情信息。

  苹果将上述功能加入到一台运行iOS10的iPhone中实属不易,要知道类似的功能在Google与微软那里,都是通过云端数据处理后的返回结果。苹果之所以采用这种方法既有历史原因,也有诸多现实考量。历史上看,乔布斯时代的苹果对人机交互有着异常的坚持,比如iOS曾经异常的简洁性——这也意味着毫无选择性的交互方式。乔布斯也曾表示,如果他来做一款DVD,那么唯一的按钮就是「烧录」,其他都可以舍弃。正是这样对于简洁性的追求,使得苹果的产品线长期以来在功能上的变化都极其克制。

  乔帮主已仙逝多年,iOS自iOS7开始在交互上开始复杂,但将人工智能纳入到苹果产品的过程依然十分缓慢,摆在苹果面前的现实问题有两个,其一,苹果的云服务不如Google和微软,至今苹果iCloud的服务还有一部分跑在亚马逊AWS上,这也使得苹果无法像Google微软那样通过云端强大的处理性能来处理照片分类、语音识别等。

  其二,苹果长期以来的价值观就是对用户隐私的保护。以虚拟助理来说,Siri早在2011年就已经发布,但比起GoogleNow、微软的Cortana来说,Siri真的很不智能,原因就在于Siri对于用户数据的收集非常少,而另外两家公司的产品则有点「贪得无厌」,尤其是Google,默认的用户协议里,Google可以收集用户几乎所有的为其所用。

  尤其是在2015年Google发布颇具里程碑意义的GooglePhoto之后,苹果CEO库克在接受媒体采访时公开表示:

<上一页  1  2  3  4  5  6  7  下一页>  余下全文
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号