侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

偏见:人工智能辅助决策的隐患解读

2019-01-08 09:52
EAWorld
关注

偏见:人工智能辅助决策的隐患

人们在招聘过程中的许多决定也被移交给AI,用以进行简历筛选、工作能力分析和比较等。招聘工作是一个非常强调时限的过程,招聘过程的每个参与方都要付出高昂的代价:一旦出错的话代价甚至更高。据全美高校和雇主协会估计,在一家500人规模的中型公司中,雇佣一名雇员的费用约为7,600美元。通过让算法来完成这一繁重的任务,企业可以将其大部分资源和资金投入到其他地方,最终也更可能找到合适的人才。

然而,“替代目标”成为这个过程中的一个问题,因为对许多理想的工作特征的评估很难直接操作。如今,业界的一些热门词汇包括“创造力”、“沟通”和“生产力”,所有这些都是难以衡量的。衡量创造力的最常见的方法是替代用途测试,在这种测试中,人们会为常见的项目提供非常规的用途(比如,列举出回形针的25种用法,用以检测应聘者“不走寻常路”的能力,译者注)。基于这一衡量标准,员工可能会被分配一个“创造力能力倾向”分数,这个分数会加入训练数据集,用以筛选具备相同特质的员工。问题是,替代测试只是测试创造力的一个方面,即发散思维。它忽略了创造力的所有其他方面,而有些方面可能对公司文化非常有价值。其结果是,公司招聘了一大批具备“创造力”的员工,然而他们却都是以同样的方式来进行“创造”的:这很讽刺,也很无聊。

我们已经将机器学习算法用于做出重要决策的可能性尽量理想化了,但事实是,机器无法理解客观性、真实性、中立性或平等性。而当人类生命受到威胁时,所有这些特征都是重要的考虑因素。我们将何去何从?

结语

尽管我们已经阐明了人工智能模型可能带来的许多问题,但仍旧有很多理由可以支撑我们从以人为中心的决策方式转变为基于人工智能的决策方式。正如前面提到的,尽管人工智能存在种种缺陷,但它仍然比人类更客观。正因为如此,我们看到人工智能在基于决策和预测的任务中的应用仍旧在持续深入。但是,较少的偏见并不等同于没有偏见,当算法做出有偏见的决定时会发生什么?我们如何决定谁应该为此承担责任?毕竟我们没办法去惩罚一个有偏见的预测算法(能怎么办呢,删除它?)

可以说,跟踪问责制的最佳方法是对人工智能决策过程进行准确和详细的记录。也就是说,做出决定的过程和数据必须是透明的,这样如果有任何问题发生,第三方审计师就能够追溯导致结果的步骤,以找到问题的根源。人们已经为此制定了法案和法律,以保持相关实践的透明度。

当然,审计方法本身并不是没有问题的。对于具有大数据集的人工智能来说,审计并不总是可行的,审计也不总是适用于深度学习系统,后者不只面临大数据集的问题,还面临复杂的计算网络的挑战。算法的自主性和透明性似乎互相矛盾,随着算法在‘学习’和调整方面变得越来越好,人们就更难理解偏见发生在哪里了。虽然审计对于更简单的模型是有效的,但我们可能需要一种不同的方法来减轻复杂算法的偏见。

另一种减轻偏见的方法是针对AI的训练者和创建者。通过让他们意识到自己的偏见,我们有更好的机会将这些偏见排除在算法之外(比如,在设计谷歌翻译时考虑中性性别代词)。值得注意的是,人类的偏见是客观存在的,而且很难减轻,因为它是一种进化特征,但我们至少可以不断意识到我们自己的大脑容易受到偏见的影响。总之,如果我们不断学习、自查、保持明智并做出正确的选择,算法将可以为缓解由来已久的偏见作出贡献。

“继续努力使文化变得更好,并不断更新人工智能,以跟踪文化的发展。这才是上策。” 

——乔安娜·布莱森

谢谢你的阅读!

相关参考资料

1.Abate, Tom., Krakovsky, Marina. “Which is more fair: a human or a machine?” Stanford Engineering, January 31, 2018.

2.Bornstein, Aaron M. “Are Algorithms Building an Infrastructure of Racism?” Nautilus, December 21, 2017.

3.Bright, Peter. “Microsoft Terminates Its Tay AI Chatbot After She Turns Into a Nazi.” Ars Technica, March 24, 2016.

4.Courtland, Rachel. “Bias Detectives: the researchers striving to make algorithms fair.” Springer Nature, Macmillan Publishers, June 21, 2018.

5.Miller, Alex P. “Want Less-Biased Decisions? Use Algorithms.” Harvard Business Review, July 26, 2018.

6.Schep, Tijmen. “What is Mathwashing?” Mathwashing, 2018.

7.Shapiro, Stewart. “The Objectivity of Mathematics.” Synthese, vol. 156, no. 2, 2007, pp. 337–381.

8.Bolukbasi, T., Chang, K., Zou, J., Saligrama, V., Kalai, A. “Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings.” Microsoft Research New England, 2016.

9.Yona, Gal. “A Gentle Introduction to the Discussion on Algorithmic Fairness.” Towards Data Science, Medium. October 5, 2017.

偏见:人工智能辅助决策的隐患

关于作者:Nicole Kwan,坐标不列颠哥伦比亚大学,对这个世界和它所能提供的一切充满好奇。目前对认知科学和UX设计的研究十分着迷。

<上一页  1  2  3  4  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    机器人 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号