侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

iPhone7全揭秘:苹果在iPhone里藏了个“人工智能大脑”

2016-09-08 09:18
小伊琳
关注

  就像之前在语音识别上做的那样,机器学习也提升了用户的体验,尤其是在更灵活地理解用户命令。

  Cue为此专门拿出了自己的iPhone现场演示了一个例子,在调用Siri之后,他分别发出了“用Square现金给Jane发20美元(SendJanetwentydollarswithSquareCash)”、“直接给我妻子发20美元(Shoottwentybuckstomywife)”,最终的得到的结果完全一样。

  苹果最近还表示,如果没有Siri带来的这些而便利,它们不太可能迭代出现有这个在语音控制方面如此复杂的AppleTV。

  尽管早期的Siri强迫你使用一个相对固定的方式说话,但是被深度学习加成之后的超级版本不仅能够区分一堆电影和音乐中的特殊选项。甚至还能处理一些模糊的概念:“我想看TomHanks主演的惊悚片(如果Siri足够聪明,它最终推荐的应该是《达芬奇密码》)”,在深度学习技术诞生之前,想要实现这样的效果就是做白日梦。

  借助今年秋天即将发布的iOS10系统,Siri的声音成为了机器学习改良的最后一个部分。同样的,这个改变也是用神经网络直接代替了之前的第三方授权技术。

  本质上来说,Siri的发声还是依靠一个采集了很多声音的大数据库,通过把句子打散成词汇,再将词汇的语音像堆积木一样拼在一起。而机器学习所扮演的角色,则是让单词之间更加流畅,从而让Siri的声音更加像真人。

  Acero同样也做了一个演示——分别让Siri阅读两段一致的内容,第一个有着我们非常熟悉的“机器感”,而另外一个则非常流畅。而他所说的原因也非常简单:“深度学习”。

  虽然看起来这是一个很小的不起眼的细节,但Siri有一副更加自然的嗓音实际上能够催生出大变化。Gruber说了下其中的差别:

  音频只要更加高质量一点,用户们就会更加信任它。同时更好的语音也会引入用户,并且让用户对Siri的使用率更高。

  当苹果最终将Siri对开发者开放,人们使用Siri的意愿,以及机器学习所带来的提升就变得更加重要了。对苹果批评者的意见进行处理是一个非常长期的过程。

  也有很多人指出,苹果的第三方伙伴数量停留在了两位数,与亚马逊类似的Alexa拥有的、由外部开发者提供的超过1000种“技巧”相比,数量相差甚远。

  苹果的回复则指出这样的对比并没有意义,因为在亚马逊产品上用户必须使用特定的语言去使用功能。而诸如SquareCash、Uber这样应用通过Siri来使用也更加自然。

  与此同时,Siri的改变也给苹果产品以及用户带来了一些改变:用户得到的是新功能以及完成相同任务的更多方式;而Siri服务的请求次数也在不断上涨。

  对于不断拓展机器学习的苹果来说,最大的问题在于如何在成功的同时坚持其原有的隐私证词。苹果加密了用户的信息,这样没有任何人、哪怕是苹果自己的律师也不能查看用户数据(记得之前吃瘪的FBI嘛?)苹果还专门表示:不会将收集的用户数据用于广告目的。

  在用户的角度这也许是值得尊敬的,但这对于吸引顶尖的人工智能人才没有帮助。

  所有机器学习的专家,都希望能够拥有一大堆数据。但是因为隐私政策,苹果一直不愿使用这些数据。这种做法是否合理仍需进一步讨论,但这确实让苹果一直被人看做人工智能世界中的局外人。

  这种有普遍代表性的观点,换回来的却是苹果高层的激烈抗议。他们认为在不保存用户存档的前提下,为机器学习提供所有所需文件,甚至将用户行为的实例保存下来训练神经网络都是可能的。Federighi补充到:

  这一块一直存在错误的叙述和权衡,大家认为我们是保护用户隐私的异类其实是一件好事,但是为了让绝大多数用户的利益,我们愿意给行业中的其他人指出一条发展之路。

  我们已经找到了获取我们需要的数据,同时又能保护用户隐私的方法。

  这里有两个关键问题,第一个涉及个人信息在机器学习基础系统中的处理,当用户的详细信息被神经网络所收集,那么最终我们能得到什么资料呢?

  第二个问题涉及到为了训练神经网络和识别规律之时的信息聚集分类,你怎样在保证群体数据的同时剔除个人信息?苹果其实有同时解决两者的方法,Cue表示:

  有的人认为我们不能用人工智能来做这些数据分析,因为我们并不拥有这些数据,但是我们已经找到了方法,在获取信息的同时保持隐私属性。这也是我们的底线。

  首先是第一个问题——保护被神经网络识别的个人喜好和信息,解决方法在于用更加独特的方法来控制软硬件。简单一点的解释就是,最为私人的东西会停留在苹果大脑之内,“我们将最敏感的信息保存在能够执行ML的本地”。

  举个例子来说,右滑之后出现的应用列表。在设计中,这个位置需要显示你接下来最可能打开的几个应用。这些预测基于一系列因素,很多都涉及到用户行为本身,这对于其他用户来说并没有意义,苹果的处理方法就是直接在手机本地处理需求。

  最终功能的效果也非常明显,预测用户接下来用什么应用基本能够达到90%的准确率。

  苹果在设备上保存的其他个人信息主要是——用户使用iPhone输入法键入的内容。通过利用神经网络系统分析你的输入,苹果可以能够发现关键性的时间和物品,比如航班信息,联系方式,甚至是约会——但是信息本身只会停留在你自己的手机当中。

  即便部分信息会存储在苹果的云中,也会通过特定处理,让这些存储的信息无法反向还原“苹果公司不需要知道你的爱好,或者你什么时候打算去哪里玩”。

  苹果也在尽量减少保存的信息量,对此Federighi也提到了一个例子:如果你的一段对话中有一部分需要进行搜索,其他公司必须将整段对话上传到云端进行分析,而苹果设备能够在数据不离开设备的条件下检测出关键信息——这是因为手机会将这些信息与手机内的“知识库”进行匹配。

  它很精简,但是是一个综合性知识库,包括了成千上万的定位和对象。我们之所以采用本地化的策略,是因为我们知道你在哪里。

  Federighi还透露,这个知识库其实与所有的苹果应用都有相连,包括我们用的搜索栏、地图、甚至是浏览器,可以帮助用户实现自动纠错。

  它其实一直在iPhone后台,保持着工作状态。

<上一页  1  2  3  4  5  6  下一页>  余下全文
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

机器人 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号