草根影响力新视野 编译/钟艺

KIJ12

神经学家正在“教”AI从大脑中译码信息。

Kelly Servick在本周发布在bioRxiv的三篇论文中称,目前已有三个不同的研究团队证明他们可以译码神经元发出的语音信息。在这些研究中,直接放置在大脑上的电极可以记录神经活动,同时,让脑外科手术接受患者听或者念出文字。随后,研究人员尝试弄明白患者听到或者说出的内容是什么。在每个研究案例中,研究人员都可以将大脑的脑电波活动转换为可以被其他人理解的声音文件。

在第一个研究实验中,研究人员对脑手术中的患者展开了研究。(在实验中采用的神经记录技术必须在大脑暴露于空气中并且电极可以直接放置在脑部时,才能精准的反应神经活动的详细情况。所以对处于脑部手术中的患者展开此项研究是较为合适的。)

当患者听到声音文件时,研究人员记录了负责听取声音部分的神经元活动情况。在尝试了各种神经元信息解读方法后,该研究的小组成员发现计算机深度学习的效果最好。用人声将计算机深度学习后译码的信息念出来时,75%的信息是可以被人们理解的。

第二个研究依赖于进行过脑肿瘤切除手术患者的神经元记录。当患者大声朗读单音节词时,研究人员记录了患者口中传出的声音和在大脑发音区域发出的神经元信息。之后,研究人员利用人工智能神经网络将神经元记录转换成音频文件,而不是利用计算器深入学习算法深层次了解每一个患者的情况。从结果来看,人工智能神经网络输出的信息也是可以被理解的。

在第三个实验中,研究人员记录的对象是大脑中将词语信息转化成肌肉运动的部分。研究人员在实验报告中表示,他们能通过这种方式重建整个句子,并且让听过这些句子的人可以正确理解它们。

所有这些实验的目标是有一天能够让失去说话能力的人(例如肌萎缩侧索硬化症或类似病症的患者)可以通过计算机与大脑连接的界面实现说话。目前,还没有相关的实际应用案例。

根据现阶段的科学研究成果,解释一个人想说话的神经模式比解释听到或者说出来的神经模式更为复杂。不过,第二个研究的成员表示,未来有可能通过技术实现对大脑活动的解释。

虽然这些研究都取得了一定的成果,但是研究体量还不足够大。第一个研究仅分析了5个患者的数据,第二个研究分析了6个患者的数据,第三个研究则更少,仅有3名患者的数据。而且每个研究对神经活动进行记录的时长都没有超过1个小时。

尽管如此,科学正在向前发展,我们有理由相信,能连接到大脑的人工语音设备会在某一天成为现实。

资料来源:AI Can Now Decode Words Directly from Brain Waves