李飞飞论战赫拉利:AI之战一旦爆发 或将碾压核竞赛
AI的诞生,正是源于人工智能科学家与神经科学家的对话。AI给医疗保健行业带来了巨大的改善。机器学习帮助收集了大量的生理学和病理学数据。
Yuval:这只是其中的一部分。一门科学技术如果没有任何收益,那么它就不会有任何危险,因为就没有人去研究它。我认为AI会带来巨大的利益,尤其是当它和生物学结合在一起的时候。目前全世界的医疗水平已经达到了历史以来的新高,数十亿人只需要点一点手机就能获得便宜、可靠的服务。这也是我们无法抗拒它的原因。尽管有人认为这会引发隐私方面的问题,但在隐私和健康比起来,显然后者更重要。但我必须指出它带来的危险。特别是硅谷地区的人,已经习惯了AI带来的好处,但他们很少考虑它的危害。
如果这种事情真的发生,那么我们生活中的所有决策都将源于算法。这将产生两种形式的反乌托邦。我们所有的决策都将是由算法帮我们决定的。这不仅包括早晨吃什么、去哪里购物,还包括去哪里工作和学习、和谁约会、和谁结婚、投票给谁等。我想知道的是,人类思想中是否有什么东西是无法被机器入侵的,这种技术将来作出的决策是否会优于人类。这是其中一种反乌托邦。还有则是,基于一个能监控一切的系统,我们将产生一种高度集权的政体,这类似于上个世纪出现过的集权政体,但借助生物传感器,它能全天候地监控到每一个人。
李飞飞:当你问我这个问题时,我脑海里蹦出来的第一个词是“爱”。你觉得爱也会被机器取代吗?
Yuval:这个问题得看你指的是哪一种爱。如果你指的是希腊哲学中的爱或者佛教中的爱,那么这个问题会更加复杂。如果你指的是生物学意义上的,与哺乳动物之间求偶有关的,那么我的回答是“yes”。
人类之所以是人类,那是因为我们不止会求偶,对吗?这部分也会被机器取代吗?
Yuval:我认为你在大多数科幻小说中看到过答案。当来自外星的邪恶机器人入侵地球时,人类节节败退,但最后关头人类绝地反击,反败为胜,因为机器不懂什么是爱。
李飞飞:科幻小说中通常是一个白种人拯救人类。Yuval所说的两种反乌托邦,我找不到答案。但我要强调的是,正是因此,我们现在就要寻找解决方案,现在就要寻找人类学家、社会科学家、商业巨头、公共社会和国家政府进行会谈,联手谱写人工智能的新篇章。我认为你的确引发了人们对这场潜在危机的关注。但我觉得,除了面对它,更重要的是采取行动。
Yuval:我也觉得我们应该让工程师与哲学家、历史学家进行更加密切的合作。从哲学的角度看,我认为工程师身上也存在一些很优秀的东西。工程师们少说多做。哲学家们总喜欢弄一堆稀奇古怪的比喻。所以如果工程师问哲学家“你到底想表达什么?”那么这些理论大多都站不住脚,因为他们很少能解释这些理论——我们需要的就是这种合作。
如果我们都不能解释爱,不能用代码来表达爱,那么AI可以感受它吗?
Yuval:我不认为机器能感受到爱,但如果只是为了监控、预测和操纵这种感受,那么机器也没必要感受到它。正如机器不可能喜欢玩游戏,但它就是具备这种功能。
李飞飞:个人而言,我们这段对话存在两个非常重要的前提。
第一,人工智能已经达到了一个全知全能的地步,它具备了感知能力,甚至爱的能力。但我要强调的是,这和目前的人工智能存在非常遥远的差距,这种技术还很不成熟,目前媒体对它的炒作居多,具体实施还需要很多年的努力。
第二,我们所处的这个世界将存在一个非常强大的人工智能,或者这个技术只属于少部分人,然后他们企图用它来统治全人类。但实际上,人类社会非常复杂,人类数量非常多。在历史上,我们已经见过很多科技落入少数恶棍手中,在缺少监管、协作、法律法规和道德准则的约束下,这些技术的确给人们社会带来了巨大的伤害。
但总体上看,我们的社会在朝着更好的方向发展,人们也更倾向于对话解决问题。所以我们不仅要谈论人工智能成为“人类终结者”的问题,也要谈论一些眼下更紧急的问题:多样化、隐私、劳动力、法律调整和国际政治等。
如何避免数字专政?
Yuval:关键问题就是如何管理数据的归属权。因为我们不可能停止生物学领域的研发,也不能停止研究计算机科学和人工智能。所以之前的公式中,最好控制的就是数据,但这也非常困难。目前虽然已经作出了一些举措,但要控制数据这同时涉及哲学和政治两个方面。拥有数据,以及管理数据所有权,到底是什么意思?在过去几千年里,我们已经充分理解了,什么是土地拥有权,但很少了解什么是数据拥有权,以及应该如何进行管理。但这正是我们要解决的问题。
我承认AI没有某些人想的那么强大。但我们必须把握这个度,我们不需要完全了解人类的AI,只需要它比我们更了解自己。这并不困难,因为很多人根本不了解自己,所以经常犯下决策错误,包括理财和爱情等方面。所以将这些判断题交给算法,可能仍然很糟糕,但只要比我们做的好一些,那么这种趋势仍然会存在。
将来可能会出现这种情景,你可以写出各种的算法帮助你了解自己。但如果这些算法不止把这些信息分享给你,也把它们交给广告商或者政府会怎样?我觉得我们不应该只思考太遥远、太极端的情景,而是更关注我们生活中的例子。
人工智能存在着机遇和风险,目前最重要的事情是什么?
李飞飞:我们现在有太多的事情可以做,这一点我非常同意Yuval的看法。斯坦福大学认为,未来的人工智能应该是以人为本的,我们需要坚持三个主要原则。
第一,要投资具有人类思维特征的人工智能技术。目前大多数人工智能都依赖于数据,以及对数据的管理政策,这样可以控制人工智能带来的影响。但我们应该开发一种可以解释人工智能的技术,以及能对人类智力产生更细微的理解的技术。同时还要投资那些不太依赖于数据的人工智能,它能反应人类的直觉、知识和创造性等。
第二,为人工智能的研究设立更多的准则。让经济、道德、法律、哲学、历史和认知科学等多个领域的人参与研究。任何单一领域的研究人员都不能单独解决这个问题。
最后,除了上述操作性的建议,我认为我们在做这些事情时,我们应该抱着警惕和理解,同时又要将这种技术运用到正途。
图片新闻
最新活动更多
-
11月22日立即报名>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论