侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

AI“立法”新纪元:需要多方共同参与 充分沟通

2019-03-18 00:39
来源: 动点科技

我们面临的法律和伦理挑战可能在20年内就会发生。因为届时,机器人与人类能力相当。——地平线创始人兼CEO余凯

今天的AI已经走出来实验室、象牙塔,快速渗透到人类社会生活中的,我们在享受技术进步的便利时,潜在的威胁也随之而来——法律盲区、伦理挑战、监管的空白地带……如何在发挥AI价值的同时,规避其带来的风险?

AI“立法”新纪元:需要多方共同参与 充分沟通

AI开启“立法”新纪元

最近的两会上,AI立法成了热门话题。在十三届全国人大二次会议4日举行的新闻发布会上,大会发言人张业遂表示,全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证。科技圈的大佬如百度董事长李彦宏、中国移动通信集团有限公司党组书记、董事长杨杰等,和学术届的专家,纷纷建言献策,共同探讨AI立法的实践。

尽管世界的各国政府对人工智能的重视程度有过之无不及,不过,有关AI立法和道德准则的制定,仅有少数国家作出明确的规定,如德国的“道路交通法第八修正案”。目前,中国的人工智能实力已经走在世界前列,而配套的法律法规,也理应不甘人后。

AI是个新事物,覆盖的领域广,牵涉的利益也是方方面面,所以在立法上也就需要更多的探索与讨论。作为AI行业的践行者——AI企业是如何看待以及探索AI立法呢?动点科技采访了人工智能独角兽地平线和数坤科技。

自动驾驶的“新法”制定需多方共同参与

“技术层面其实没有难题,难点在于企业的价值观。”地平线创始人兼CEO余凯认为AI的发展中:我们面临很大的挑战是人与人、人与客观世界的关系,以及要怎么定位人和机器之间的关系。余凯是技术发展的乐观派,他预测,我们面临的法律和伦理挑战可能在20年里就会发生。因为届时,机器人与人类能力相当。那到时,人类应该如何处理这种关系?

以备受关注的自动驾驶为例,曾有人提出“无人驾驶汽车在危险情况下是否可以不计后果地保护自己的主人?”,余凯认为这并不是一个单纯的技术问题,而是一个永恒的伦理问题。“无人驾驶技术只是手段,机器智能不应该凌驾于人类伦理之上。”他认为,其背后的决策逻辑涉及到法律和伦理问题,需要相关的政府机构、学术专家、企业的共同参与制定相关的规定。

此外,自动驾驶还涉及一个富有争议性的话题,即:事故发生后的定责问题。余凯认为这是技术发展到一定程度后必然会衍生出的法律问题,也是一个系统性的社会工程。其需要制定一套明确、清晰的机制来明确责任划分。“所以要完善地解决这个问题需要技术专家和法律专家共同来制定更加细节的法律细则。从具体操作流程来上来说,未来原则上应该也是技术协助执法部门定责,保险公司赔付。”他说。

显然,针对自动驾驶领域的相关法律规则制定,需要多方参与,每一个细节都必不可少。

为新技术制定新法规,需谨慎使用现有政策工具

医疗行业是一个与伦理道德密不可分的领域。有的技术理想主义者发表了机器人代替医生的观点,引起了极大的争议。“目前医疗AI的定位是辅助医生,而非替代医生直接面对患者。”数坤科技的创始人马春娥认为决策者依旧是医生,而技术则是工具。其实,这样清晰的定位可以减少很多麻烦的伦理道德问题。

对于AI医疗来说,面临的最明显的法律法规问题则是审批问题。“医疗AI产品涉及到医CFDA三类证,目前国家相关部门正在制定针对AI的审批标准。”马春娥表示,对于新一代的医疗AI产品,在之前的产品分类、审批、发证等流程和标准上没有先例可循。“在评审数据库建设和监管方面,仍在摸索阶段,但大方向已清晰。此外,医疗AI产品的性能、算法模型、应用界面等都在快速更新,传统增项或者升级审批无法满足行业发展需求。”她补充解释道。

那么,对于复杂严谨的医疗行业,AI在立法探索有哪些关键因素呢?首先,她认为,从以往经验来看,对于新技术,制定新法律法规,最好是评估现有政策工具,谨慎使用。“因为新的法律法规和税收政策可能会阻碍AI的推广和使用。”她解释道,由于AI技术的应用领域跨度很大,过度管理可能会无意间减少市场主体(尤其是创业公司和小型企业)创造和提供的技术的数量。“政策制定者需要和业内及时沟通,制定有利于AI技术长远发展的法律法规。”她说。企业是AI医疗产品的研发者和推广者,本身最清楚面临法律和伦理风险。而建立一套完善行业规范,也需要行业协会、行业企业共同努力。

具体到产品审批方面,她认为,由于可能造成伤害大小的不一致,AI医疗产品的分级监管也非常重要。如美国将能够提供明确诊断结果的AI辅助诊断产品视为具有最高风险等级的医疗器械进行监管,除需进行一般监管外,还需进行上市前审批(PMA)。对于低风险的AI医疗产品,美国FDA采取“数字医疗软件预认证计划”。经过预认证的开发主体即有资格直接销售自己的低风险医疗AI产品,而无需经过FDA的额外审查和一系列入市审查。

AI作为一个新技术,我们花了很多时间实践、试错。现在是时候集中各家智慧与经验,总结其规律。就如百度董事长李彦宏在在全国政协十三届二次会议第三次全体会议发言时的建议一样:由政府主管部门牵头,组织跨学科领域的行业专家、人工智能企业代表、行业用户和公众等相关方,开展人工智能伦理的研究和顶层设计,制定人工智能伦理的指引性文件。每个AI业内人都需要有这样的责任感。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号