侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

机器人的崛起:忘了邪恶的AI吧 真正的危险其实更加隐蔽

2016-09-12 11:01
姚看江湖
关注

  “相比机器人主动反抗人类的命令,更有可能发生的情况是,它们在执行人类的命令时无意地伤害了人类或者带来麻烦。”

  我们看到人工智能的崛起时,很容易进入反乌托邦主义的情节之中,认为有意识的机器会起来反抗创造了它们的人类。科幻作品中出现的反面角色,如《终结者》里的 “天网”和《2001:太空漫游》中的哈尔,要对人类的这种情节负责。

  但是,AI带来的真正危险——至少在近期内——是更为隐蔽的。相比机器人获得自主意识而主动反抗人类的命令并崛起,更有可能发生的情况是,它们在执行人类的命令时无意地伤害了人类或者带来麻烦。正因为认识到了这一点,加州大学伯克利分校本周成立了一个研究中心,专门研究如何建立对人类友好的AI。

  本周新成立人类友好型AI研究中心,由开放慈善项目赞助550万美元作为启动资金,由计算机科学教授、人工智能先驱Stuart Russell领导。他迅速澄清了研究方向与科幻小说所描述的威胁之间“无理的、耸人听闻的”关联。

  “危险不会来自于机器突然发展出的恶意的自主意识,”他说,“重要的是你要知道,我们不是要阻止这样的事,因为我们对于意识本身是什么还一无所知。”

  Russell在人工智能领域声名远扬,他在2015年发表了一份公开信,号召研究者超越增强AI能力的研究目标,并考虑如何让AI在社会上发挥有益的影响。这份公开信已经有超过8000位科学家和企业家在上面签名,其中包括物理学家史蒂芬·霍金、企业家埃隆·马斯克和苹果公司合伙人史蒂夫·沃兹尼克。

  “(AI研究)可能带来的好处是巨大的,因为人类文明发展的终极产品是人类的智能;我们无法预测我们通过AI提供的工具来放大我们的智慧能够达到什么样的成就,但起码消除贫困和疾病是不难想象的。”公开信中这样写道。

  “由于AI具有极大的潜力,因此重要的是研究如何从它身上获得帮助,同时还要避免可能出现的隐患。”

  正是这样的想法,促成了这个新成立的研究中心。

  到现在为止,AI主要被应用于非常有限的环境中,如下国际象棋和围棋、识别图片中的物体,在这些应用环境中AI能够造成的破坏和伤害是非常有限的。如果AI开始在现实世界中做出关于我们切身利益的决定,这种风险就会高得多。

  “一旦你把AI放到真实世界中,放到无人驾驶汽车、数字助理等应用中……当AI开始帮你购买对你利益有影响的物品、帮你取消约会时,它们的价值观立场必须保证和人类一致。”Russell说。

  他举自动驾驶汽车为例,说明他们研究中心试图解决的问题。假设一个人在设计自动驾驶汽车系统时,设定了不允许闯红灯的规则,但这个智能系统可能会黑进交通灯的控制系统,让所有交通能变绿。这样的话,这个无人驾驶汽车的智能系统虽然按照规则行事,但显然不是人类希望的结果。类似地,为一个套利基金设计的人工智能,被设置为让其投资组合的价值最大化,可能会被短期消费型股票刺激,而长期持有国防类股票,然后引起战争——如 WernerHerzog最新的纪录片中埃隆·马斯克表达的那样。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号