战争机器人具有道德意识 恐怕不再是幻想
不同于如今的无人机由人类进行控制,未来的自主机器人可能会进行自主选择。
1月份在瑞士召开的达沃斯世界经济论坛上,专家们表示对自主机器人的担心,并认为人们根本不相信会建成有道德意识的机器人。
研究人员可按照具体的规则对其进行编程,防止他们任意行事。
例如,科幻作家艾萨克·阿西莫夫,曾在其短片小说中介绍用三种规则来管束机器人的行为。
˙机器人不得伤害人类或袖手旁观让人类遭受到伤害。
˙机器人必须遵守人类发出的指令,除非此指令内容与第一条规则相冲突。
˙机器人必须保护自己的存在,只要此种保护方式不与第一种和第二种规则相冲突。
即使他们能合法运作,但是自主机器人都会产生严重的道德和伦理挑战。最后,即使自主机器人合法并且有道德意识,他们可能还是会非常危险。机器人发生故障或者敌方黑客可能会导致很严重的后果。目前尚且还没有任何国家使用自主机器人,但是也有一些国家和地区在战区部署无人机。如果保护自主技术的安全系统被黑客攻克,可能会导致战场上的浩劫。
IHS简氏国际防务评论编辑Huw Williams表示:“可以致力于加强数据链路加密,保证与操作者互联的安全性。”而且随着系统变得更加自动化,无论平台是否由人进行操作,黑客风险也会随之增加。(文/Tina译)

图片新闻
最新活动更多
-
4日10日立即报名>> OFweek 2025(第十四届)中国机器人产业大会
-
泰科电子立即查看>> 创新的工业机器人解决方案
-
4月23日立即报名>> 【在线会议】研华嵌入式核心优势,以Edge AI驱动机器视觉升级
-
4月25日立即报名>> 【线下论坛】新唐科技2025新品发布会
-
4月30日立即参与 >> 【白皮书】研华机器视觉项目召集令
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论