AI读心术: 计算机如何还原脑电波?
“我的身体沉重如潜水钟,内心却渴望像蝴蝶般自由飞翔。”
这句来自电影《潜水钟与蝴蝶》的台词,也是前《ELLE》杂志主编、记者让·多米尼克的真实经历。
让·多米尼克中风瘫痪后,身体的语言和运动功能都丧失了,他不能说话,不能自主呼吸,只剩下一只眼睛和意识可以自由活动。在这种情况下,他还是“写”出了一部散文集。
书是这样完成的:助手把一个个字母依次念给让·多米尼克,直到他眨一下眼,就把那个字母记下来……如此循环进行,直到字母形成单词、句子、片段,最终付梓成册。
显然,这个还原思维的过程十分艰辛且原始,但至少给他的灵魂留下了一丝自由遨游的可能。
而对于更多缺乏发声能力的普通人(比如中风患者、植物人等)来说,无法与正常人交流的他们,生命已然停滞。
技术能帮助他们“言其所不能言”,提高生活质量吗?
答案是肯定的。科学家们正试图让看不见摸不着的思维活动自动“显形”。
通过计算机,将大脑中的所思所想转换成语音说出来,这种“读心术”距离现实究竟还有多远?
《潜水钟与蝴蝶》(2007)剧照
AI读心术:计算机是如何还原脑电波的?
先来泼一盆冷水,那就是想要将人想象中的单词和句子转换成语音,目前的计算机还做不到如此鬼斧神工的地步。
不过,已经有研究人员成功利用AI复原了人听到或超小声说话时的句子。
技术的实现原理也并不复杂。人类的发声运动是靠大脑神经元电信号刺激下颌、嘴唇、声带等部位形成的。
因此,只要将相关脑区的神经运动信号输送给AI系统,深度学习网络就会根据信号与相对应的语言文字或嘴部运动进行层层匹配,推断出具体说了什么,再由语音合成器将这些信号转换成能被听到的语音。
那么,这项技术的靠谱程度如何呢?
哥伦比亚大学计算机科学家Nima Mesgarani做了一项实验,让听众“收听”一组与故事和数字有关的听觉皮层数据,有75%的人能够正确识别出该数字。
类似的实验在加州大学旧金山分校的研究组也成功了。癫痫患者大声朗读句子时的大脑活动被记录下来,借助深度学习网络重建为书面语句。结果显示,AI重现的句子有80%都是正确的。
既然神经信号转译为书面语言被证明是可行的,下一步就是要走出实验室,真正帮助失声人群“说出心里话”了。
麻省理工学院的研发人员就开发了一种植入型智能增强设备,由可穿戴装置和相关计算系统构成。
设备中的电极可以截取由内部语言所触发的下颌和面部肌肉运动信号,被反馈到机器学习系统,再由该系统将神经信号与特定的文字相关联。
使用者还可以通过骨传导耳机,在不中端对话的前提下通过面部振动,将外部信息传递到内耳。
目前,根据听众自身定制的这种可穿戴设备,平均转录识别准确率已经达到92%以上!
如果说前面还属于辅助医疗范畴,到这里就有点开挂的苗头了。比如在国际象棋比赛中,选手要是戴上这样一副耳机,不就可以不被察觉地“听”到计算机给支招吗?
麻省理工学院媒体实验室Fluid Interfaces小组的研究员Arnav Kapur演示了AlterEgo项目
图片新闻
最新活动更多
-
直播中立即观看>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-0120限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论