
《CyborgIN》:CyberDaily关于脑机接口-仿生义肢-赛博格的子栏目。
Cell 期刊最近刊登了一项让人惊掉下巴的研究:斯坦福大学的科学家们,把脑机接口推进到一个全新阶段,它居然能把人心里想的话翻译出来。

美国斯坦福大学博士毕业生埃琳·昆茨(Erin Kunz)是相关论文的第一作者兼通讯作者
过去我们听到脑机接口,大多是机械臂、光标之类的控制场景。而这一次,研究人员把微电极阵列植入运动皮层,捕捉大脑里关于“言语”的信号,然后用算法解码成文字。结果,他们搭建出了一个能处理 12.5 万词汇的解码器。
换句话说,这是一个真正意义上的意念说话系统。
更让人意外的是,他们发现尝试发声(嘴巴没动,但努力想说出口)和内心独白(心里默念)在大脑里其实共享一部分神经通路。也就是说,读心这事,至少在神经层面上,并非天方夜谭。
难点不只是能不能读,而是读多少、读哪一部分
科学家们自己也很清楚,没人希望脑机接口随时随地把脑子里的小剧场抖出来。所以这项研究的亮点之一,就是它提出了两道“安全阀:
一是能分清主动想表达的内容,和你仅仅在脑海里闪过的私密念头。
二是用户可以通过默念特定关键词来锁定或解锁系统,相当于一个心灵口令。
这两点的意义可能不亚于技术本身。因为如果解决不了隐私问题,再强的脑机接口也无法真正走向应用。

为什内心言语这么重要?
目前大多数语音脑机接口,都需要用户去努力“假装”说话。这种方式耗费体力,对瘫痪患者尤其是沉重负担,还会拖慢速度。
而内心言语提供了一条更轻松的路。用户只要在心里想,就能触发解码。斯坦福团队在四位参与者身上验证过,运动皮层确实存在相对稳定的内心言语信号。同时,他们还发现了一个新的运动意图维度,能帮解码器区分是想说出来,还是只在心里过一遍。
那这意味着什么?
如果说过去的脑机接口是让人动起来,比如控制机械臂、操作电脑,那么这项成果正在让人说出来。对于那些失去说话能力的人来说,这几乎是打开了一扇被封死的窗。
想象一下,一个 ALS 患者,不需要再盯着眼控设备慢吞吞拼字,只要心里说,电脑就能转成文字甚至语音输出。这种效率上的提升,不是小修小补,而是质的飞跃。

但别误会,它还没到你一想就全暴露的程度
研究人员也强调,目前系统能解码的范围还是有限。内心独白千差万别,有些人是语言化的,有些人则更偏图像或抽象思维,这些复杂的东西,现阶段并不能直接读出来。
而且,即便在实验里,系统也主要针对特定的任务,比如数数、默读、复述等。真正要做到随心所欲地解码任何念头,至少现在还很远。
任重道远
这次斯坦福的突破,更像是把思维转语言的科学拼图,往前推进了一块关键的拼片。它既证明了内心言语在大脑里的稳定存在,本次研究表明,通过借助运动意图维度进行精细的脑机接口解码训练,能够以高保真度防止内心语言的泄露。
对闭锁患者来说,这无疑是新希望,而对普通人而言,这项研究也让我们不得不重新思考。当机器能听见大脑的低语,我们该如何定义真正属于自己的内心。