侵权投诉
焊接机器人 喷涂机器人 搬运机器人 装配机器人 切割机器人 其它机器人
订阅
纠错
加入自媒体

清华大学孙富春:视听觉认知的8年抗战

2016-08-13 14:19
夜隼008
关注

  8月13日,在CCF-GAIR峰会第二天的智能驾驶专场,清华大学教授孙富春带来了国家自然科学基金委员会重大研究计划视听觉信息委员会的八年计划。

  孙富春表示,这个项目经过8年的论证到2008年才在国家自然基金委成立,这是视听觉认知计算的重大立项。从2008年到2017年总共也是8年,他们的目的是研究人类视听觉的认知机理,发展新的高效计算模型,提高计算机对与人视听觉感知相关的图象、语音和文本信息的理解能力和处理效率,是围绕认知过程的表达与计算的基本科学问题。

  什么是人类视听觉的认知机理?

  感知基本特征的提取、表达和整合

  感知数据的机器学习与理解

  关于跨模态学习的信息协同与计算

  他们的主要工作就是研究人对视听觉的感知,这些信息在脑区是怎么编码的?脑区是怎么合作的进行信息的融合?并且把这些变成可计算的模型,这样的话我们就可以把听觉信息和视觉信息进行编码,通过可计算的模型进行处理来对环境进行感知和理解,并且把这种理解和人的理解进行比较,最终把这种技术用在无人驾驶方面。

  在演讲中展示了他们从2008年开始8年在视听觉感知中的重要成果,并且从2009年开始至今总共举办了7次无人车的挑战赛,在过程中:

  发表更多的关于认知科学方面的成果。

  把自然语言理解和脑机接口把它集成到车的平台上,许多成果现在还停留在实验室。

  通过无人车平台取得的重大进展,进一步促进创新,引领无人车产业的发展。

  未来的愿景

  1、认知机理研究成果,如何形成可计算的模型,这个我们探索了很多的方法,还需要进一步地完善。

  2、在环境感知的拓扑结构信息如何在认知过程中表达与理解。

  3、探索新兴的多模态传感器,如把声音视频信息集成在一起。

  4、研究人机智能混合问题,这个也是刚刚国家提到的人工智能2.0版本,我们要研究人机混合的智能系统。

  希望能通过无人车挑战赛个平台发表更多的关于认知科学方面的成果。

  以下为演讲实录:

  尊敬的各位来宾,女士们先生们,大家上午好!如果有一天你坐在驾驶车里面,看到驾驶室里没有驾驶员,或者是这个驾驶员没有把握方向盘,你千万不要震惊,因为我们已经进入了一个无人驾驶的时代。你可能难以想象,从长沙到武汉,2800多公里的路段里面,有雨天也有晴天,人工干预仅仅占整个路段的0.75%,从北京到天津150公里的路段里面,没有人工干预,实现全程的自主驾驶。可能你更难以想象的是,在2.08米障碍的路段里面自主车穿越只有11厘米的绒线,自主车的效率是人工的5倍。

  我们今天给大家带进由国家自然科学基金委员会重大研究计划视听觉信息委员会的八年里面走过的一个一个故事。

  视听觉信息的认知计算我把它比喻成8年抗战5年的解放战争和抗美援朝。这个项目经过8年的论证到2008年才在国家自然基金委成立,视听觉认知计算的重大立项。走到今天我们要感谢郑南宁、李德毅、陈琳、孙家广等院士。

  视听觉信息首先是看到,这张图大家可以看到,这张图是在1997年发表的一篇文章里讲到的,大家看到,上帝对人特别青睐。从我们的眼睛到微曲的皮层。这个环节是连接了感知部分和信息处理部分,大家想想这么长的一个感知和处理部分,我们的触觉和其它感觉听觉都没有这么长的感知和处理路段,所以大家看到的眼睛是我们心灵的窗户。我们人类获取外界的80%的信息是来自视觉,我们皮层的60%都是跟视觉相关的。

1  2  3  4  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

技术文库

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号