加州大学的研究人员利用人工智能驱动的脑机接口(BCI),将安妮·约翰逊的脑电信号实时转化为语音。自2005年中风后她便失去了说话能力。该系统采用了与Alexa和Siri等设备类似的技术,并改进了之前存在8秒延迟的型号。.
加州大学伯克利分校和加州大学旧金山分校的研究人员开发了一种定制的脑机接口系统,能够帮助一位47岁四肢瘫痪的女性恢复自然流畅的语言能力。如今,安妮正在帮助加州大学旧金山分校和加州大学伯克利分校的研究人员开发脑机接口技术,这项技术未来有望让像她一样的人通过数字虚拟形象进行更自然的交流,该虚拟形象能够将面部表情与生成的语音相匹配。
加州大学伯克利分校电子工程与计算机科学系助理教授、周一发表在《自然·神经科学》杂志上的这项研究的合著者戈帕拉·阿努曼奇帕利证实,在安身上测试的植入式设备将“她说话的意图转化为流畅的句子”。堪萨斯大学言语与应用神经科学实验室的乔纳森·布伦伯格也审阅了这项研究结果,他对这一进展表示欢迎,并告诉美联社,这是“神经科学领域的一项重大进步”。
脑机接口技术使一位女性在失语近20年后重新获得了说话能力。
读心术即将到来
脑机接口取得突破性进展:一种新型植入物可在短短 3 秒内将想法转化为实时语音——这是瘫痪患者实现自然交流的关键一步。.
这项发表在《自然·神经科学》上的研究展示了人工智能算法如何…… pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 2025年4月1日
一位因中风瘫痪的女子在沉默近二十年后,通过加州大学伯克利分校和加州大学旧金山分校的研究人员开发并专门为她定制的实验性脑机接口,重新获得了说话的能力。这项研究于3月31日发表在《自然·神经科学》杂志上,利用人工智能技术将这位被人们亲切地称为“安妮”的参与者的想法实时转化为自然语言。.
阿努曼奇帕利解释说,该接口通过放置在大脑语言中枢的电极阵列读取神经信号。他补充说,很明显,在某些疾病中——例如肌萎缩侧索硬化症(ALS)、脑干中风(就像安妮的情况)或损伤——身体变得无法活动,患者被“困住”,认知功能完好,但无法移动或说话。阿努曼奇帕利指出,虽然在制造假肢方面取得了显著进展,但恢复语言能力仍然更加复杂。.
“与其他物种共有的视觉、运动或饥饿等能力不同,语言使我们与众不同。仅凭这一点,它就足以成为一个引人入胜的研究课题。”
–戈帕拉·阿努曼奇帕利
然而,阿努曼奇帕利承认,智能行为如何从神经元和皮层组织中产生仍然是一个巨大的未知数。这项研究利用脑机接口(BCI)在安妮的大脑电信号和计算机之间建立了一条直接通路。.
新型脑机接口设备改进了之前版本中存在的延迟问题。
美国研究人员的创新方法通过以80毫秒为单位分析受试者的大脑活动并将其转化为合成语音,消除了此前该技术版本中令人沮丧的延迟。近期,许多脑机接口语音翻译项目都取得了积极成果,这些项目的目标都是缩短将想法转化为语音所需的时间。
据 Science Alert 报道,大多数现有的 BCI 方法需要先考虑“一整段文本”,然后软件才能破译其含义,这可能会显著延长语音开始和发声之间的时间。.
加州大学伯克利分校和旧金山大学的研究人员联合发布的报告指出,提高语音合成的延迟和解码速度对于动态对话和流畅交流至关重要。该联合团队解释说,脑机接口(BCI)语音延迟的产生,不仅源于语音合成播放所需的时间,还源于听者理解合成音频所需的时间。
据报道,现有的大多数方法都依赖于“说话者”通过公开地发出声音来训练界面,但这对于缺乏练习或一直有说话困难的人来说,在为解码软件提供足够的数据时会面临挑战。为了克服这两个障碍,加州大学的研究人员利用一位47岁参与者的“感觉运动皮层活动”训练了一个灵活的深度学习神经网络。在参与者无声地“说出”100个不同的句子时,这些句子来自一个包含1000多个单词的词汇表。.

