侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

“机器人总统强过特朗普?”技术视角看通用AI能否超越人类领袖

2017-07-10 11:21
路过的码农
关注

机器人总统需要的是通用人工智能

从技术的角度来看,人工智能还不够聪明,无法管理国家。机器人目前可以完成的工作列表确实很长,从诊断疾病,到驾驶汽车,再到赢得各种游戏,以及在你的智能手机上回答问题——它成长迅速,但是现在,我们所有的 AI 系统使用的都还是弱人工智能,意味着他们需要专门编程才能执行任何给定的任务。

而显然,总统要做的远不止一个“任务”。

“如果你是美国总统,你要解决的是你这个层面上没有其他人能够解决的问题。等着你砸的是那些最硬的坚果。”CMU 的机器人学教授伊拉尔·努尔巴赫什(Illah Nourbakhsh)曾说过——他曾为 NASA 的机器人项目工作过“而最难破解的坚果是认知方式。没有太多先例可供参考,你必须使用最富创造性的思维。”

为了实现这一切,机器人总统将需要科学家所说的通用人工智能,也被称为“强人工智能”——与人类智能一样广泛、富于创造性和灵活性的智能。伊斯特万和其他谈论机器人总统的人,指的是这种人工智能。强人工之智能还没有出现,但有些专家认为即将到来。

Waser 说:“有一些人相信人类水平的人工智能将比预想中来的早得多,我就是这些人之一。2008 年那会儿,我表示那会在2025 年左右到来。十年后,我看不出有什么理由要修改这个预判。”Vita-More 也同意这个观点,她预测 10 –15 年内就可以有一个早期版本的强人工智能。

但是,这种乐观的估计是基于一个关键的假设:我们很快就会来到计算机自我解决问题的时代——科学家们称之为“技术奇点”。在那个时间点上,计算机将比人类变得更聪明,甚至可以自己设计出更新更智能的计算机。然而,努尔巴赫什说,他不认为所有涉及开发更好的计算机的技术问题都可以通过机器来解决。有些还有赖于新的化学发现或者用于构建这些超级计算机的新型材料的发明。

AI 的不可解释性对需要不断做出重大决策的工作是个大问题

在 AI 管理国家之前,需要解决的另一大技术问题是:机器人不知道如何解释自己。AI 接收信息,做出决策,但没人知道为什么机器会做出这个选择——这对于需要不断做出决策的工作来说是个大问题,况且这些决策还伴随着不可预测的投入和严重的后果。是的,你对特朗普或克林顿可能会有些看法,但至少他们知道自己的思考过程,还能向公众和国会解释他们的行为,并转播到电视或 Twitter 上让民众都有所了解。

而一台计算机,至少现在还做不到这一点。

“机器必须能够与其他机器合作,才能有效。”Waser 说。“它们必须与人类合作,才能安全”。而如果你不能向别人解释你的思维过程,那么合作会很艰难。

这个缺陷部分是因为 AI 的工作方式。在称为机器学习的方法中,计算机分析如山的数据,并找到可能对计算机而不是对人类有意义的模式。在称为深度学习的变体方法中,计算机使用多层处理的方法:一层产生粗略输出,然后由下一层进行细化,而该输出又被下一层再细化。这些中间层的输出对于任何外部人类观察者都是不透明的——计算机只会给出最终的结果。

“你可以带你孩子去看电影,然后由此聊开去,聊聊他们的心情,进行一个真正有趣又深入的谈话。”努尔巴赫什说,“但 AI 做不到这点,因为 AI 不理解从一个小话题向一个大话题的转换。”

一个被投喂了种族主义滋养的数据的 AI,就可能生成种族主义的结果

即使我们可以解决所有这些问题,机器人仍然可能不是我们想像的决策者。机器人总统的主要优势之一就是能够统揽数据,而且能够做出决定,不带人类的偏见。但即使这样的优势,也并不明确——研究人员发现很难教 AI 系统完全避免偏见。

例如,2015 年发布的谷歌照片应用程序使用 AI 识别照片的内容,然后对照片进行分类。该应用程序做得不错,却犯了一个明显的错误:它将几张黑人的照片标记为“大猩猩”。系统完全意识不到自己犯了怎样的错误,更理解不了其中牵涉的令人震惊的历史和社会背景。当时谷歌做出了道歉,并表示会调查这一问题。

还有一些例子,也影响了人类的生活。一个全国法院都在使用的 AI 能够判断被告重新犯罪的风险,并为法官的判决做出指导。它似乎是这种自动化技术的完美应用。它可以会处理大量的数据,找到人们可能会错过的模式,并避免困扰人类法官和检察官的偏见。但是,ProPublica 的调查报告发现,黑人被告被 AI 系统认为在未来进行暴力犯罪的可能性要比白人被告高出77%(创建该系统的营利性公司对ProPublica 的调查结果提出异议)。AI 系统并没有明确地考虑被告的种族,而是因为一些与贫困和失业相关的因素与种族相关。系统基于这些数据,给出了这样的结果,虽然它的表面上是中立的,却是数百年不平等现象的沉淀。

这对所有计算机来说都是问题:它们的输出只是输入的忠实体现。一个被投喂了种族主义滋养的数据的 AI,就可能生成种族主义的结果。

“技术体系无法免于偏见,不会因为只是数字就自动变得公平。”哥伦比亚大学文化人类学家马德琳·克莱尔·伊利(Madeleine Clare Elish)说,“我最大的恐惧是,人们无法接受 AI 技术的人类开发者将自身的偏见和缺陷也编码其中。“

奥巴马政府去年 10 月发表的关于 AI 的报告对这一问题也同样关切:怀着最美好初衷、全无偏见的开发者也可能无意中做出有偏见的系统,因为即使是 AI 的开发人员也可能无法完全了解他所开发的系统,无法防止意外结果的产生。

<上一页  1  2  3  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号