侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

人类能造出有道德的机器人吗?

2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能道德准则草案。在许多人担忧人工智能取代人类、破坏伦理的大背景下,该草案旨在指导人们制造一种“可信赖的人工智能”。如何才能让机器人更令人信赖?可否赋予它们道德修养呢?就此话题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦。

问:什么是人工智能的“道德”?

艾伦:人工智能的“道德”,或者说“道德机器”“机器道德”,有很多不同的含义。我将这些含义归为3种。第一种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。

就目前而言,第一种含义所设想的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。在这样的“无监督”情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。

问:如何让人工智能具有道德?

艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件容易的事。人类的本质都是出于利己主义做事,而不考虑他人的需求和利益。然而,一个道德的智能体必须学会克制自己的欲望以方便他人。我们现在构建的机器人,其实并不具有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差异的。对机器的训练问题在于,我们怎样才能赋予机器一种能力,让它敏感地察觉到哪些对人类的道德价值观而言是重要的事情。此外,机器需要认识到它的行为会对人类造成痛苦吗?我认为是需要的。我们可以考虑通过编程,使机器按照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不拥有利己的本能。

问:发展人工智能的道德应采用怎样的模式?

艾伦:我们曾在《道德机器》中讨论了机器道德发展模式,认为“自上而下”和“自下而上”相混合的模式是最佳答案。首先谈一谈“自上而下”和“自下而上”意味着什么。我们以两种不同的方式使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为能够符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以说,在工程领域中,“自下向上”是从数据当中学习经验,而“自上向下”则是用确定的规则进行预编程。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    机器人 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号