德国继韩国之后进行智能武器研究 对“终结者”说不
近日有消息称,德国研究出智能蜘蛛机器人,德国festo透露未来将研究该款机器人应用于战争。前不久韩国科学技术院(KAIST)研发“杀手机器人”的计划遭到了多国人工智能(AI)及机器人工学的专家联合抵制,KAIST已宣布取消了“杀手机器人”计划,但人类并未停止智能武器的研究。
德国蜘蛛机器人
德国研发的这款蜘蛛机器人优点是可以适用于任何地形,隐蔽性强,外形很像真的蜘蛛,很有迷惑性。该款蜘蛛机器人在战争中主要用于地面的侦测、信息的捕捉,不具备攻击武器。
之所以开发这款蜘蛛机器人,是因为德国认为在一些特殊地形,无人机仍然满足不了战争的需要,比如巷战和丛林战等,这些无人机很容易被敌方锁定,所以有必要发展地面的侦测设备。
为什么要抵制智能武器?
由于智能武器有一个很大的弊端就是绝对不能超出人为控制,不然智能武器一旦有了自我识别能力,那么人类自己也会受到智能武器的伤害。
可以预见,采用人工智能的未来军用机器人肯定比今天同类机器人拥有更大自主性和更致命的攻击性,它们会不会像电影《终结者》描绘的那样“活”过来甚至发疯失控呢?1978年9月,日本一家工厂的切割机器人突然“发疯”,把正在值班的工人当成钢板切割了,这是历史上首起机器人杀人事件。自那以后,人们就开始不断想象机器人失控的可能性。
人工智能迅速发展给社会各个领域带来深远影响,对军事作战系统研发也带来全新理念。然而,人工智能界的专家学者及防务分析人士认为,机器人暴动仅是科幻小说式的终极噩梦,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否,才是人们亟须担忧和讨论的现实问题。
更令人担心的是,战斗机器人一旦大批量生产,很可能有“漏网之鱼”流入黑市,取代炸弹成为恐怖分子手里的屠杀工具。“他们可以用它实施刺杀、颠覆、叛乱等活动,不顾任何伦理约束,无数平民将因此受到伤害。”全球人工智能专家在致韩国高级科学技术院的公开信中称:“这个‘潘多拉的盒子’一旦打开,将很难关闭。”
随着军用人工智能日益成为作战行动中的关键要素,人们应该对战争的道德伦理基础进行重新分析、审查和检验,尽早制定相应的法律法规和技术防护措施。这套法律规则的核心内容是:人类必须居于指挥链的最高层级,永远高于机器;不允许技术建立或修正相关参数指标(包括交战规则),不允许一架机器向其他机器下达决定人类生死的命令。同时,全球各国还应展开相关讨论,就战时人工智能的使用达成基本共识并建立相应的法律框架。
图片新闻
最新活动更多
-
12月12日火热报名中>>> STM32全球线上峰会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
-
即日-0120限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论