AI没有三观 需要监管
构建合乎道德的人工智能是一项极其复杂的任务。而当利益相关者意识到人工智能要与道德规范相符是局外人的观点时,事情就变得更加困难了。
加利福尼亚州月半弯——当地一篇新闻报道称,Clarifa正与美国国防部合作,但有一些员工质疑其开发分析无人机拍摄视频的人工智能系统的道德性,对此,该公司表示,该项目将能挽救平民和士兵的生命。
“Clarifai的使命是通过不断改进人工智能技术来加速人类的进步,”该公司创始人兼首席执行官、著名人工智能研究员Matt Zeiler在博客中写道。后来,在一次新闻媒体采访中,Zeiler宣布增加了一个新的管理岗位,这将确保公司的所有项目都符合道德规范。
随着活动人士、研究人员和记者对人工智能的崛起表示担忧,并对带有偏见、欺骗性和恶意的应用发出警告,开发此类人工智能技术的公司正在做出回应。从像谷歌和微软这样的科技巨头,到斗志昂扬的人工智能初创企业,都在制定企业原则,旨在确保他们的系统以一种合乎道德的方式设计和部署。还有一些公司设立了道德官员或审查委员会来监督这些原则的实施。
但随着一些人在质疑这些承诺最终能否兑现,紧张的局势变得愈加严峻。企业可以改变方式。而理想主义也可能屈服于财政压力。一些活动人士——甚至是一些企业——开始辩称,确保道德规范实践的唯一途径是通过政府监管。
但许多政策专家表示,他们认为政府制定的原则不太可能比大公司制定的更具影响力,特别是因为美国国防部在开发类似技术时,有足够动力与中国、俄罗斯和其他国际竞争对手保持同步。因此,一些人呼吁签订禁止使用自主武器的国际条约。
监管是否是最好的方法?
Clarifai的员工在他们的公开信中表示,他们不确定监管是否是解决人工智能技术道德问题的最好方法,并且,他们认为,直接责任在于公司本身。
“监管会减慢研究的步伐,而我们这个物种需要不断进步,才能在今天面临的许多威胁中生存下来,”他们在写给Zeiler和公司其他成员的信中写道,“我们需要有足够的道德感,让人们信任我们,才能靠我们自己来实现这项技术,因此我们有责任让公众清楚地了解我们的道德规范原则。”
但他们的信并没有达到预期的效果。Zeiler解释说,因为Clarifai很可能会致力于自主武器的开发。几天后,这封信的作者,也就是之前被任命为道德顾问的Liz O'Sullivan,离开了公司。
像Whittaker这样的研究人员和活动人士认为,这是一个科技公司的员工可以利用其自身的力量推动变革的时刻。但他们也表示,这必须发生在公司内外都能意识到道德规范重要性的情况下。
Whittaker 表示,“我们确实需要监管。”就连微软的首席法律官Brad Smith也持有相同观点。
图片新闻
最新活动更多
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-0120限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论