新的计算机程序翻译大脑信号到语言。该技术跟踪传递到口腔内和口腔周围肌肉的电子信息,以解码大脑试图说出的内容。需要进一步的测试,但开发人员说它可以用来设计脑植入物,以帮助中风或脑部疾病的人沟通。
“我们希望创造能够直接从人类大脑活动中再现语音的技术,”加州大学旧金山分校的神经外科医生Edward Chang在新闻发布会上表示。“这项研究证明了这是可能的原则。”他和他的同事们今天(4月24日)在“自然”杂志上描述了这一结果。
该技术具有高度侵入性,依赖于放置在大脑深处的电极。因此,到目前为止,仅对5名患有癫痫的人进行了测试,他们已将电极作为治疗的一部分。这些人在测试期间可以 - 并且确实说话,这使计算机能够计算出相关的大脑信号。科学家现在必须检查它是否适用于不会说话的人。
荷兰乌得勒支大学医学中心的神经科学家尼克拉姆齐说,这可能会更加困难,他研究大脑植入物,帮助锁定综合症患者沟通,尽管他们的肌肉普遍瘫痪。“你是否能够从不能说话的人那里获得足够的大脑数据来构建你的解码器仍然是一个悬而未决的问题,”但他说这项研究“优雅而精致”,结果显示出前景。“我已经跟踪他们的工作了几年,他们真的明白他们在做什么。”
言语是人体最复杂的运动行为之一。它需要精确的神经控制和肌肉在嘴唇,舌头,下颌和喉部的协调。为了解码这项活动,当志愿者大声朗读一系列句子时,科学家们使用植入电极跟踪大脑发出的信号。计算机算法使用预先存在的声道如何移动以产生声音的模型来分析这些指令。然后,第二个处理阶段将这些预测的运动转换为口语句子。
Chang说,这种两阶段的方法 - 将大脑活动转化为运动运动,然后将运动运动转化为单词 - 产生的失真小于试图直接将大脑信号转换为语音。当团队向听众播放101个合成句子并要求他们识别25个单词列表中的口语单词时,他们准确地转录了43%的单词。
在约翰斯·霍普金斯大学(Johns Hopkins University)从事类似系统工作的研究生秦万拉巴尼(Qinwan Rabbani)听了合成的句子并说他们很好,特别是因为计算机只有十几分钟的语音分析。他说,解码语音的算法通常需要“数天或数周”的录音。
控制语音的大脑信号比那些习惯于移动手臂和腿部更容易解码,更容易受到情绪状态和疲劳的影响。拉巴尼说,这意味着最终应用于瘫痪患者的合成语音系统可能仅限于一组有限的单词。