侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其他机器人
当前位置:

OFweek机器人网

服务机器人

正文

借鉴美国经验 未雨绸缪人工智能监管

导读: 中国目前侧重于打造平台、培育企业、构建市场、激励创新等方面,对于监管原则、监管体系和监管机构建设,基本没有部署。大众一般认为,新技术的研发是难度最大的,应用及监管与研发相比难度就会低很多。但对于将深远影响人类社会运营方式的人工智能来说,情况或许正好相反。

  中国目前侧重于打造平台、培育企业、构建市场、激励创新等方面,对于监管原则、监管体系和监管机构建设,基本没有部署。

  大众一般认为,新技术的研发是难度最大的,应用及监管与研发相比难度就会低很多。但对于将深远影响人类社会运营方式的人工智能来说,情况或许正好相反。

  人工智能的潜在缺陷与控制

  目前基于人工智能所开发的自动控制、模式识别和机器学习系统,其实都是人工智能领域非常初级的部分,往往需要研发团队针对实际应用场景设置重要先决条件,以降低人工智能系统的判别难度并提高准确率。当各种极客型的技术人员大开脑洞采用人工智能技术研发各种黑科技时,他们的关注范围是非常聚焦的,即按照最优条件下设想人工智能的应用范围和场景,较少考虑相关技术在复杂条件甚至人为滥用的情况下面临的困境。这往往也为人工智能潜在的不当使用埋下了伏笔。

  人工智能作为信息化系统,一定会受到自身设计的局限和开发质量的影响。再加上人工智能在识别和判断时需要基于人工设置和历史数据,通过精心设计的训练过程才能得到基于概率的判别结果。所以对于人工智能系统,在特定前提或应用场景下作出错误决策是100%会出现的。作为政府和监管部门,面临的第一个重要问题就是系统错误决策所引起的财产损失甚至人身伤亡该如何判定责任与承担赔偿,甚至要能够提出合理的原则,区分哪些错误决策是小概率事件本身引发的,哪些错误决策是由于系统设计、训练数据和训练过程存在问题所导致的。

  2016年2月14日,上路试验已经六年的谷歌自动驾驶汽车第一次由于系统“误判”导致了交通事故。谷歌公司表示自动驾驶汽车在这次轻微车祸中承担“部分责任”。由此可见,当时的谷歌自动驾驶系统在特定场景下触发了一个错误决策。可以想象,当自动驾驶汽车全面行驶在大街小巷时,系统的微小错误导致的责任事故会基于巨大的汽车保有量而放大成为一个引人注目的数字。由此而引起的责任划定和赔偿也会由于人工智能和人类行为的混合作用而变得异常复杂。

  另一个广为人知的应用缺陷就是公平性问题。2016年哈佛大学肯尼迪学院发布的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种肤色都成为无法抹去的高优先识别变量。人工智能系统评估结果出现了明显的对黑人群体的偏见,这是现阶段人工智能技术手段无法避免的,也是人工智能系统广泛应用于现有社会环境并为社会大众所接受的一个重要的障碍。

  在以上问题没有经过实践验证的法律支持和监管框架管理下,人工智能的全面应用很有可能带来相关领域社会活动的混乱并造成意想不到的后果。

1  2  3  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

OFweek品牌展厅

365天全天候线上展厅

我要展示 >
  • 机器人
  • 机器视觉
  • 伺服
  • 猎头职位
更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号