侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

谷歌的“邪恶”实验:当 AI 面临囚徒困境 是互相攻诘还是相互合作?

2017-02-13 09:15
退思
关注

近些年来,人工智能一步步走入我们的生活,因此我们必须了解这些聪明的“大脑”在面对两难境地时会如何选择。为此,Google 的 DeepMind 团队专门进行针对性实验,而实验中的两款游戏都是在博弈论的囚徒困境理论基础上开发的。

所谓的囚徒困境是两个被捕的犯人间一种特殊博弈,两个共谋犯罪的人被关入监狱,不能互相沟通。如果两个人都不揭发对方,则由于证据不确定,两人只需坐牢一年;若一人揭发、另一人沉默,揭发者因立功可立即获释,沉默者因不合作入狱 5 年;若互相揭发,则证据确实,两者都判刑两年。由于囚徒无法信任对方,因此倾向互相揭发,而不是同守沉默。这一经典理论说明了为什么合作对双方都有利时,保持合作也是困难的。

游戏 1:红蓝色两个 AI 收集绿色苹果

“在现实生活中,无论是合作还是相互攻讦都需要复杂的行为特性,因此 AI 需要掌握执行一系列动作的先后顺序。”DeepMind 团队在博客中写道。“我们将这一全新设定看做连续的社会困境,并利用深层强化学习训练过的 AI 对其进行研究。”

在实验中,研究人员发现 AI 会逐渐展示自己理性的一面,在必要时它们会选择合作。

在第一个名为“Gathering”的游戏中,参与实验的 AI 们会在同一区域执行收集苹果的任务,它们可以尾随在对手身后用炮弹攻击其他 AI,被击中的玩家会短暂出局。不过,这里有个前提条件,即收集苹果可以得分,但攻击他人则不会。

AI 被扔在这个游戏中数千次,直到它们透过深度强化学习理性。研究结果表明,这些家伙有时也会被利益冲昏头。

举例来说,当某区域有很多苹果时,AI 们会齐心协力收集苹果来得高分;一旦苹果数量下降,它们就会做出抉择,开始互相攻击以保护自己的胜利果实。

游戏 2:需要两个 AI 紧密配合

第二款游戏名为 Wolfpack,该游戏更需要 AI 们的合作。AI 们需要在混乱的瓦砾堆中寻找猎物,如果你能抓到自己的猎物就能得分;此外猎物被抓到时如果离猎物很近,也能得分。

在这款游戏中,研究人员发现,随着应对复杂战略能力的提升,AI 们更倾向于相互合作。

透过以上实验也让我们得出一个结论,那就是 AI 会根据自己所处的环境进行抉择,虽然有时它们会为了自己的利益相互攻讦,但大多数时候它们还是倾向于相互合作。

DeepMind 的研究团队表示:“这样的模型让我们能在模拟系统中测试策略和干预措施。”如果一切顺利,未来人类对复杂的多因素系统如经济、交通系统或生态健康都能有较深刻的把握,因为它们都需要持续合作。

  • Google’s ‘evil AI’ experiment: Firm finds ‘social dilemmas’ cause competing algorithms to turn on each other – or work together

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号