一名患有瘫痪的女性通过脑植入物和AI技术可以再次说话了!

2005年,现年47岁的安因中风导致瘫痪。新的研究通过数字技术能够帮助无法说话的人再次实现语言交流。

18年前,安·约翰逊(Ann Johnson)中风后变得瘫痪,失去了说话的能力。如今,在脑植入物和人工智能的帮助下,她能够通过数字化化身再次进行口头交流。

在上周发表在《自然》杂志上的一项研究中,研究人员在安的大脑表面植入了一组电极,将她的脑活动传输到计算机中。在那里,人工智能算法将信号转化为文字。在短暂的延迟之后,屏幕上的数字化化身会大声朗读出安的话,并通过面部表情捕捉她的情感。

“看到有这样令人满意的实际成果,没有什么能够表达我此时的喜悦,”该研究的合著者、加利福尼亚大学旧金山分校(UCSF)的神经外科医生爱德华·张(Edward Chang)在新闻发布会上表示。

“这跟以前的结果相比,有一个相当大的飞跃,”荷兰乌得勒支大学的神经科学家尼克·拉姆齐(Nick Ramsey)告诉卫报的汉娜·德夫林(Hannah Devlin)。“我们正处于一个技术的临界点。”

根据加州大学旧金山分校的一份声明,安目前使用一种设备进行交流,该设备允许她通过移动头部在屏幕上输入文字。该设备每分钟仅产生 14 个单词,而人类对话平均每分钟产生约 160 个单词。但通过新界面(Ann 只能将其用作研究的一部分),她每分钟可以说 78 个单词,使她更接近自然的说话节奏。该设备破译她的意图准确率大约为 75% 。

该界面比同一研究团队的早期版本向前迈出了一大步,该版本以每分钟 15 个单词的速度将预期语音翻译成文本。

改进后的系统依赖于植入物,植入物上有 253 个电极,这些电极放置在大脑中对于交流很重要的部分。在安中风之前,这些大脑区域向涉及言语的肌肉发送信号,例如喉部、嘴唇和舌头的肌肉。现在,一根插入安头上端口的电缆将信号传输到计算机。

接下来,人工智能将这些信号转化为单独的声音——称为音素的单词块。然后它结合音素来组成单词。说出这些话的数字化身被设计成看起来像安,并且通过使用她在婚礼视频中说话的片段来训练它的声音听起来像她。化身的脸部也会根据安的大脑信号移动并在视觉上表达情绪。

据《自然新闻》的 Miryam Naddaf 报道,安在研究结束后告诉研究人员:“听到与自己相似的声音真是让人感动激动万分的事情。 ”

安必须使用该界面进行数周的训练,一遍又一遍地默默说出相同的短语,以便它能够理解她的大脑信号。通过这些试验,算法学会了从 1,024 个会话单词库中识别术语。

“她非常专注和勤奋,”该研究的合著者、加州大学旧金山分校的电气工程师凯洛·利特尔约翰 (Kaylo Littlejohn)告诉《财富》杂志的艾琳·普拉特 (Erin Prater)。“她愿意根据需要录音,而且她明白,她的努力将用于创造一种语言神经假体,这可以让许多患有同样残疾的人恢复语言能力。”

同一天,在《自然》杂志上发表了来自不同研究人员的第二项研究,一名因肌萎缩性脊髓侧索硬化症(ALS)而失去说话能力的女性使用了另一种产生语音的脑机接口。该脑机设备以每分钟 62 个单词的速度解码她的语音,词汇量达到125,000 个的时候,错误率为 23.8%。

“现在我们可以想象,未来我们可以使瘫痪者恢复流畅的交谈,让他们能够自由地说出他们想要说的话,而且准确度足够高,能够被其他人正确的理解,”第二篇论文的合著者、斯坦福大学的研究科学家弗兰克·威莱特(Frank Willett)在一次新闻发布会上表示。

然而,《自然新闻》指出,这些新界面技术目前只在少数几个人身上进行了测试。加拿大不列颠哥伦比亚大学的神经伦理学家朱迪·伊尔斯(Judy Illes)告诉该出版物:“我们必须谨慎,不要过分承诺这些新技术能够广泛适用于大众。”“我们尚不确定,我们的技术是否达到了可以广泛应用程度。”

此外,如果这些设备在日常生活中有用,它们需要是无线的——要与安使用的设备不同——它要足够小。研究人员希望不久的将来,他们的技术将能够成为FDA批准的交流系统。

文章转载自mithsonian

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...