由真实人脑细胞构建的“迷你大脑”和微电极组成的AI系统,已经能够进行语音识别——
从数百个声音片段中准确认出某个特定人的声音的那种。
最近,一项颇为前沿的类脑研究登上了Nature子刊。
这个特别的AI系统甚至可以进行无监督学习:
研究人员只是一遍遍播放音频片段,不提供任何形式的反馈来告诉系统答对还是错。
最终,该系统在两天的训练之后,准确率直接从最初的51%升到了78%。
这,究竟是怎么实现的?
类器官神经网络来了
发明该系统的主要目的,是解决硅芯片的高能耗等问题。
一般来说,这个问题的解题思路都是靠类脑计算。
但这种思想下设计的“传统”类脑芯片大多数都是直接基于数字电子原理,完全模仿大脑功能的能力着实有限。
在此,该研究直接用上了一个叫做“类器官”的东西:
它指的是能够在实验室中利用人的干细胞培养出的微型器官,包含其代表器官的一些关键特性。
具体而言,研究人员将活体脑细胞组成的脑类器官(形状类似小团球)和高密度微电极阵列进行连接,构建出一个叫做“Brainoware”的系统。
微电极在Brainoware中的作用一是向类器官发送电信号,达到传送信息到“脑”中的目的;二是检测大脑神经细胞的放电响应,然后交给外部设备进行读取和解析。
这样的系统可以表现出类似神经网络的功能,并可以进行无监督学习。
将它连接到特定硬件,就可以被训练于语音识别。
具体任务中,研究人员将8个人说日语元音的240个音频片段转换为信号序列,然后发送给系统,让它识别出某个人的声音。
最开始,Brainoware的准确度只有30%-40%。
但经过两天的训练之后,它就可以78%的准确率识别出特定说话者。
作者在此强调,所谓的训练只是重复音频片段,不给予任何反馈,也就是所谓的无监督学习。
不过,需要注意的是,目前Brainoware只能识别谁在讲话,但听不懂任何讲话内容。
而在该实验之后,研究人员试着用一种药物来阻断脑类器官中神经细胞之间形成新的连接。
结果发现,这样操作之后,系统的准确率就不会有任何改善了。
作者解释,这说明Brainoware的学习能力取决于神经可塑性。
未来的计算机会是由大脑组成的吗?
今年三月份,该团队其实就是已经用该系统来尝试预测Hénon图了(数学领域中一种可表现出混沌行为的动力系统)。
结果Brainoware也是在无监督学习了4天之后(每天代表一个训练周期),被发现它能够比没有长短期记忆单元的人工神经网络预测得更准。
相比之下,后者可是经过了至少50个训练周期。
而再往前一点,澳大利亚一家科研团队则试图教“盘中大脑”打乒乓球游戏,结果它5分钟内就学会了,速度比AI还快17倍。
那么未来,计算机会由大脑组成吗?
还不好说。
如本文作者介绍,他们这个研究目前属于概念验证,后面还有很多问题要解决:
例如,Brainoware系统的性能还能提高,但最重要的问题是类器官只能存活一到两个月。
并且,Brainoware本身虽然不需要太多功耗,但维持它运转的外部设备的功耗水平并不低。
诸如一系列等等问题。
总的来说,有科学家预测,真正的通用生物计算系统可能需要几十年的时间才能创建。
但不管怎么样,它的研究对我们进一步理解人脑的学习奥秘等问题都有帮助。
参考链接:
[1]https://www.nature.com/articles/s41928-023-01069-w
[2]https://www.newscientist.com/article/2407768-ai-made-from-living-human-brain-cells-performs-speech-recognition/
[3]https://www.genengnews.com/topics/artificial-intelligence/brainoware-organoid-neural-networks-inspire-brain-ai-hardware/
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则