侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其他机器人
当前位置:

OFweek机器人网

服务机器人

正文

有情感机器人可能会“记仇”

导读: 目前,这个情感机器人还是在程序阶段,只有“高兴”“不高兴”两种简单模式。王培强调,机器人的情感表达不是哭或笑,不一定能被人类感知或理解,更不是简单呼应、模拟人类的情感。

AI(人工智能)有多接近人类?机器人会有喜怒哀乐吗?人工智能会不会有统治人类的一天?昨日在小蛮腰科技大会上,广州日报特别设置了“大咖面对面”环节,美国天普大学计算机与信息科学系副教授王培,与广州日报读者分享了他对于人工智能的看法,畅谈他对人工智能的未来预测。

像人一样犯错的智能才更像人

王培从专访开始便强调,他所谈的通用人工智能(AGI)与社会主流讨论的人工智能(AI)不是同一概念。人工智能让计算机取代人类脑力劳动;而通用人工智能是让计算机更像人。“AGI就是在计算机上模仿人的思维规律,而不是在具体的行为上模仿人,它可能不会下围棋、不能开汽车。”

王培举了一个飞机与鸟的例子说明人工智能与通用人工智能的差异。同样达到飞的目标,飞机的运行机制与鸟类是不一样的,制造出飞机并不能加深人类对鸟类飞行的认识。通用人工智能(AGI)要做的是,像做出模拟鸟类飞行的机器那样,做出能模拟人脑的机器。

人类思维规律是怎么样呢?王培说,人们如果要做一件一开始不知道怎么做的事,可能会先试试方法A,失败了再试试方法B。“模拟人脑的人工智能下棋不一定能赢人类,它还可能会犯各种错误,但如果它犯的错误跟人相类似,我反而觉得我成功了,因为它再现了人的思维。”

机器人已学会“高兴”“不高兴”

如果机器能再现人的思维,那它是否会出现像人类那样的情感模式?王培笑答,实际上已经出现了。

他的一位博士生的毕业论文就是研究机器人的情感。目前,这个情感机器人还是在程序阶段,只有“高兴”“不高兴”两种简单模式。王培强调,机器人的情感表达不是哭或笑,不一定能被人类感知或理解,更不是简单呼应、模拟人类的情感。

王培解释道,这个机器人情感的影响因素是目标完成的效果。如果达到预设的目标,它会感到“高兴”,表现得更开放,愿意接受更多新知识,接受新任务也会更痛快一些;如果没有达到预设目标,它会不高兴,对周围事物的敏感度降低,也不愿意接受新事物,想着“我现在的任务还没弄好,不想弄别的事”。

王培谈到,未来,通用人工智能的情感还将进一步复杂化,能感受喜、怒、忧、思、悲、恐、惊等等情感。比如通用人工智能可以分析它碰到的对象,在过去是否曾对它构成威胁,如果识别出“打不过”就会感到“恐惧”,这个通用人工智能控制的机器人会选择回避或逃跑。

机器人拥有感情或许会带来不利于人类的社会后果?王培表示有可能,他举例,拥有情感的机器人,如果被人类踹两脚,它可能会记仇,以后都不理踹它的人。但王培也认为,让机器人喜欢你,和让人类喜欢你的方式是一样的。“你对它好,它就会为你的利益考虑。”

王培认为,他无法证明坏的结果不可能发生,然而像公众担忧的“人工智能统治世界”发生的可能性很低。王培引述复旦大学一位哲学家的分析文章,公众对人工智能的恐惧更多是思维混乱的结果,难以逻辑自洽。同时,人工智能科学家应该加强与公众的交流,解释哪些是真正的危险,哪些是臆想出来的问题。

来源:广州日报

声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

OFweek品牌展厅

365天全天候线上展厅

我要展示 >
  • 机器人
  • 机器视觉
  • 伺服
  • 猎头职位
更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: