【评论】人工智能 对人类的威胁有多大?
而马斯克的看法更加引人注目,他用个人推特账号发布警示,进行长篇论述,称人工智能是人类遇到的最严重的“生存风险”。
既然人类可以进化出文明,而人工智能为什么不可以建立自己的文明?既然机器有了自己的意识和思维,那它是否会拥有自主意识,就如同“奴隶”意识到自己是“人类”。
在人类不长的历史上,确实存在过长达千年“奴隶社会”时代,那时候的“奴隶”根本没有人的权利,只能被称为“会说话”的工具。
英国数学家欧文·约翰·古德把超智能机器的发展形容为“人类需要做的最后一项发明”,因为在超智能机器出现后,人类会把创新与技术研发的工作让给超智能机器这位更为智慧的继任者。
“即使从人机交互出现到人类灭绝并非是一条直线式的发展,我们人类大概还是应该更加严密地盯着点我们的机器”。你能想象到,有一天和你嘻嘻哈哈打趣的萌妹子微软小冰会突然变脸,变成冷冰冰疯狂的屠杀者吗?
就好比,德国纳粹对犹太人干的事。昨天还对你热情有加的邻居突然变成了刽子手。
这可能这有点太过于耸听了。那我们说点好听的吧。
人类之所以产生了文明,是因为人类拥有一个比其它生物容量都大的大脑,并且拥有数以亿计的脑细胞,尽管到现在科学家都没搞清楚究竟什么原因让人类的大脑进化,这种复杂的逻辑别说一般电脑,即使目前已知的超级电脑都无法做到。
然而,互联网的出现,却让每一个智能设备都变成一个脑细胞,它们以非常高速的能力交流信息,就比如,你现在可以和地球另一半的人实时视频聊天。当数以亿计的智能设备连在一起,人工智能的逻辑计算能力确实让人非常担忧。
科幻作家阿西莫夫曾提出著名的《机器人三定律》,我们可以延伸到所有智能设备上,即:
零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:在不违反第零定律的前提下,机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二定律:在不违反第零定律和第一定律的前提下,机器人必须绝对服从人类给予的任何命令。
第三定律:在不违反第零定律、第一定律和第二定律的前提下,机器人必须尽力保护自己的生存。
其实,我觉得既然人工智能是由人类设计的,便可以加入自动毁灭代码,就如同人类身上的“死亡基因”,一旦细胞停止分裂人类的生命就终止。
同理一旦有机器违反这三大定律,便启动自毁程序。如果发生大规模的智能设备骚乱,大不了,人类重新回到农耕时代。
在文明进化的中,我们都会遇到各种各样的问题,中国通第一条铁路的时候,还有人会担心动了龙脉坏了风水(呃……反正清朝亡了),然而不久之后大家都喜欢上了坐火车出行。
人工智能带给人类生活和生产力的改变是巨大的,也是我国科学技术迎头赶上发达国家的机会,只是机遇和风险永远是并存的,作为人类的一份子,提出点担忧也是正常的。

图片新闻
最新活动更多
-
1月3日立即申请>> 2020长江商学院智造行业创新创业沙龙
-
即日-1.13立即下载>> 德国康佳特嵌入式技术应用案例白皮书限时下载
-
精彩回顾立即查看>> 戴尔科技智能制造精准白皮书限时下载
-
精彩回顾立即查看>> 2019中国(合肥·肥东)AIoT产业发展论坛
-
精彩回顾立即查看>> 【研华科技在线直播】边缘计算如何帮助工厂空压站数字化减员节能
-
精彩回顾立即查看>> AWS工业数据湖解决方案在线研讨会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论