侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

谷歌提出人工智能的五个安全规则

2016-06-23 08:52
雷本祖
关注

  不久前谷歌与Open AI公司、斯坦福大学和伯克利大学联合发表一篇题为《AI安全的具体问题》的论文,猜想研究人员在研发和使用AI过程中可能遇到的具体问题。谷歌研究(Google Research)的Chris Olah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。

  Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”

  Olah提出的五个规则是:

  避免负面效应:AI在完成一组任务时不应该被周围环境打扰。

  避免奖励黑客:AI应该妥当地完成任务,而不是借助一些迂回的方法。

  可扩展的监督:AI不需要接收不断的反馈或有效的输入。

  安全探索:AI在学习时不应伤害自身或环境。

  鲁棒性到分布式的转变:AI应该能够识别出全新的环境,并在新环境中有效地完成任务。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

技术文库

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号