侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

江晓原:为什么人工智能必将威胁我们的文明?

2016-08-05 09:31
kumsing
关注

  今天我们只能,而且必须抱着和当年搞“两弹一星”类似的心态,来进行军事用途的人工智能研发。军用人工智能就是今天的“两弹一星”。

  比较理想的局面,是各大国坐下来谈判,签署限制或禁止人工智能的国际协议。目前国际上已出现一些这样的倡议,但仅来自某些学者或学术机构,尚未形成国家层面的行动或动议。

  中期威胁:人工智能的反叛和失控

  我们再来看人工智能中期的威胁——人工智能的失控。这种威胁媒体早有报道,但有一些人工智能的专家出来安慰大家,他们认为人工智能现在还很初级,即使战胜了李世石,不过是下个棋,即使它会作诗、写小说,它还是很低级的,所以不用担心。这种安慰非常荒谬。

  我们都知道“养虎遗患”的成语,如果那些养老虎的人跟我们说,老虎还很小,你先让我们养着再说,我们能同意这样的论证吗?你让我们同意养老虎,就得证明老虎不会吃人,或者证明你养的不是老虎。要是老虎养大了,它要吃人了,就来不及了。

  《黑客帝国》三部曲

  这个成语非常适合用来警惕人工智能的失控。各种各样的科幻作品都有提及失控的后果,比如影片《黑客帝国》中,人工智能建立了对人类社会的统治,我们人类就完蛋了。我们为什么要研发出一个统治我们自己的超级物种?

  当然,还有一部分专家说,想让我们提供关于人工智能这个“老虎”不吃人的证据,我们有啊,我们有办法让我们的人工智能不吃人,不反叛,变成不吃人的老虎——我们只需要给人工智能设定道德戒律。

  围绕在人工智能中设定怎样的道德戒律,用怎样的技术去设定,专家们确实已经想过各种各样的方案了。但是这些方案可行吗?任何一个具体方案,如果仔细琢磨,就会发现都是有问题的。我们先不考虑具体的方案,我们只要考虑一个总体的情形,就足以让我们警惕。简单地说,如果通过为人工智能设置一些道德戒律,就指望它不会学坏,那么请想一想,我们人类到现在为止,能够做到让每一个后代都学好吗?答案是做不到。我们总是有一部分学坏的后代。对这些学坏的后代,难道家长和老师没有向他们反复灌输各种道德戒律吗?况且社会还有各种各样的法律制约,但仍然还有一部分人不可避免地学坏。从这个情形来推想,人工智能就算是你的一个孩子,你能确保他不学坏吗?

  更危险的事情是,人工智能会比人类更聪明。现在人类有一部分后代学坏,还没有颠覆我们的社会,那是因为他们毕竟没有变成超人,总体跟我们是一样的。一小部分人学坏,大部分人还是可以制约他们。要是那个学坏的人是超人,他掌握了超级智能后依然学坏,人们将没办法控制它。然而现在人工智能研发追求的是什么境界——不弄出“超人”来,科学家肯罢手吗?

  所以,那些盲目乐观,说我们能让人工智能不学坏的人,请先解决怎么确保我们人类自己的后代不学坏吧。如果人类不能在总体上杜绝我们后代的学坏,那对人工智能不学坏的信心从何而来?

  在考虑人工智能的中期威胁时,还必须考虑人工智能与互联网结合的可怕前景。主要表现为两点:

  1、互联网可以让个体人工智能彻底超越智能的物理极限(比如存储和计算能力)。

  2、与互联网结合后,具有学习能力的人工智能,完全有可能以难以想象的速度,瞬间从弱人工智能自我进化到强人工智能乃至超级人工智能,人类将措手不及而完全失控。

  另外,鼓吹人工智能的人在安慰公众时,还有一个非常初级甚至可以说是相当低幼的说法:“我们可以拔掉电源”。专业人士在试图打消公众对人工智能的忧虑时,也经常提到这一说法。但实际上他们完全知道,如今人工智能已经与互联网密切结合——事实上,这一点正是许多大企业极力追求的,借用如今高度发达的定制、物流、快递等社会服务,人工智能几乎已经可以摆脱对所有物理伺服机构的依赖。而当人工智能表现为一个网上幽灵时,没有机体和形态,将没有任何“电源”可拔。

  人工智能和互联网结合以后,危险成万倍增长。以前对于个体的人工智能,它智能的增长还会受到物理极限的约束,但一旦和互联网结合,这个物理极限的约束就彻底消失了。所以人工智能可以在极快的时间里自我进化。

  去年一篇很长的文章在很多圈子里疯传,那篇文章稍微有点危言耸听,但结论我同意。作者想论证这样一种前景,就是说人工智能一旦越过了某个坎之后,自我进化的速度是极快的,快到不是以年月来计算,而可能是以分钟甚至是秒来计算。一瞬间它就可以变成超人。一旦变成超人,当然就失控了。因此说老虎还小的人,不要以为老虎跟现在一样一年长大一点,如果这个老虎一分钟长大一倍,这样的老虎还了得?虽然现在很小,过五分钟就能吃人了。

  当然,对于这种事情,我本质上是乐观主义者,虽然我看到了这样危险的前景,我也还是得乐观地生活。只能如此,不能因为觉得末日可能要来临了,就不过好自己的每一天。

  另外,对人工智能专家,我想说:你们要知道,在我所预言的危险前景中,你们是最危险的,因为你们就在老虎旁边,老虎最先要吃的,很可能就是你们这些人,所以要特别警惕。

<上一页  1  2  3  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号