【视点】机器人也会造假、有偏见?原因在这儿
比如说,你在数据库里询问“巴黎:法国::东京:x”时,系统给你的答案是x=日本。但是,如果问题变为“父亲:医生::母亲:x”时,给出的答案是x=护士;再比如问题“男人:程序员::女人:x”,答案为x=主妇。
这种答案在一定程度上已经算是一种性别歧视了。而据分析,个中原因是Word2vec语料库里的文本本身带有性别偏见,之后的向量空间图随之也受到影响。
由此我们可以看出,机器学习之所以会出错,某种程度上还是归于“学习资料”的“不太正经”,以及算法那种什么都学的性质。
这种错误是否可以避免?
讲真,以当前的技术来讲,这种现象是很难杜绝的。如果要杜绝这种情况的出现,那不仅涉及到技术层面,还有社会道德层面。
先看社会道德层面。机器学习算法的数据来源于人们的语言、行为习惯等,以软银计划打造的人工智能汽车为例。7月份,软银与本田达成合作,联手打造一辆能够阅读驾驶员情绪并与之交流的汽车,在行驶过程中,系统中的机器学习算法可以学习驾驶员的驾驶习惯,从而在无人驾驶模式开启时,能够给予驾驶者最舒服、毫无违和感的的驾驶体验。但是,如果该驾驶员有不良驾驶习惯,那将会对算法的学习提供错误的示范。
这仅仅是驾驶习惯,而在语言方面,其中可能包括暴力、侮辱等等字眼,相比于驾驶习惯,这些更难以约束。因而,在学习对象都不能“正经”的情况下,又怎么将机器学习算法调教完美?
再看技术层面,这也得从数据方面下手。如果想要好好的训练算法,研究人员就得剔除数据中的不良信息和隐藏的逻辑,再让算法分别识别。但从这里我们就可以了解到,这是对于研究人员而言,将是一项极其繁重、极具难度的工作。而且,抠字眼还是比较简单的了,最难搞的还是字里行间的逻辑关系,一不小心就是一个大坑。不管是人类,还是机器,对于这种识别都是一个难以跨越的坎儿。
以此种种来看,机器学习固有它的好处,但我们还是不能过于依赖,尤其是涉及到一些复杂的工作,比如开车、聊天等情形。不过,虽然当前这个问题很难解决,但随着人工智能技术的发展,说不定哪天研究人员就能想到一个法子,从而彻底解决这个问题。

图片新闻
最新活动更多
-
6月13日立即参评>> 【评选】维科杯·OFweek2025中国工业自动化及数字化行业年度评选
-
6月13日立即参评>> 【评选启动】维科杯·OFweek(第四届)2025汽车行业年度评选
-
6月13日立即参评 >> 【评选启动】维科杯·OFweek 2025(第十届)人工智能行业年度评选
-
7.30-8.1火热报名中>> 全数会2025(第六届)机器人及智能工厂展
-
7月31日免费预约>> OFweek 2025具身机器人动力电池技术应用大会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
推荐专题
- 1 人形机器人革命,NVIDIA如何破局?
- 2 《2025机器人+应用与产业链新一轮加速发展蓝皮书》电子版限免下载!
- 3 【展商推荐】意优科技:专注于人形机器人关节模组的研发与生产
- 4 用信步工控主板,当行业冠军,“天工”机器人马拉松夺冠!
- 5 MOONLIGHT 玄晖成为全球首款获得 CE+ETL双认证的力控型并联机器人
- 6 MiR 发布最新电子书,揭示AMR 革新医院物流全流程
- 7 谁将成为行业榜样?维科杯·OFweek2025中国工业自动化及数字化行业年度评选邀您参与!
- 8 【展商推荐】因时机器人:专注于微型精密运动部件研发制造和伺服控制技术突破创新
- 9 【展商推荐】意优科技:专注人形机器人关节模组的研发与生产
- 10 市占率超70%领跑人形机器人赛道!国产六维力传感器突围 获智元/小米等头部客户批量应用
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论