侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

美国防部试图揭开黑盒子之谜 AI如何进行决策判断?

2017-06-13 09:26
PokerJoker
关注

为了探索人工智能,美国国防部高级研究计划局(DARPA)正在资助俄勒冈州立大学(OSU)的研究,该研究将试图了解人工智能系统做出决策背后的逻辑,DARPA希望这将使人工智能更加值得信赖。

人工智能(AI)在过去几年里发展迅速。现在,人工智能系统可以驾驶汽车,进行医学诊断,以及人们在日常生活中所做的其他诸多事。除了人类,我们实际上(在某种程度上)可以理解决定背后的逻辑。然而,在人工智能方面,决策背后有一个特定的“黑匣子”,使得人工智能开发人员自己也无法理解或者预测人工智能正在做出的决策。

我们知道,神经网络被教导要通过把它们置于一个巨大的数据集合中来做出这些选择。从那里,人工智能训练自己去应用他们所学到的东西。要相信一个人不懂的东西是相当困难的。

美国国防高级研究计划局(DARPA)希望打破这个黑匣子,第一步是为来自俄勒冈州立大学(OSU)的八名计算机科学教授提供资金,他们将获得650万美元的研究经费。

“最终,我们希望这些解释是非常自然的,将这些深层网络决策转化成句子和可视化的内容,”OSU的阿兰·芬恩(Alan Fern)说,他是八人团队中的首席研究员。

声音和知情的选择

他们将进行持续四年的“DARPA-OSU计划”,涉及开发一个系统,让人工智能与机器学习专家交流。他们将开始开发这一系统,将人工智能的玩家引入星际争霸等实时战略游戏。人工智能玩家将接受训练,向人类玩家解释他们在游戏中选择背后的原因。

这并不是第一个将人工智能带入游戏环境的项目。谷歌的DeepMind也将星际争霸作为人工智能的训练环境。这是一款备受争议的末日游戏人工智能机器人,该研究项目的结果将由DARPA应用于他们现有的机器人和无人驾驶汽车的工作中。

显然,人工智能在执法和军事领域的潜在应用要求这些系统符合伦理道德。芬恩说:“没有人会在关键的应用程序中使用这些新兴技术,直到我们能够建立某种程度的信任,而拥有解释能力是建立信任的一种重要方式。”

值得庆幸的是,这个“DARPA-OSU”项目并不是唯一一个让人工智能变得更值得信赖的项目。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号