![]()
计算机不一定要由硅片构成。这句话正在从哲学命题变成实验室现实。
日本东北大学和函馆未来大学的研究团队在《美国国家科学院院刊》上发表成果,他们将大鼠皮层神经元培养在芯片上,接入实时机器学习框架,训练这些活体细胞自主生成复杂的时序信号,而且成功了。
这不是科幻小说,这是已经发表的同行评审研究。
让神经元"学会"按节拍放电
这套系统的核心,是一种叫做储层计算的机器学习范式。储层计算的思路是,不去精确控制每一个计算单元,而是把一个复杂的动态系统当作"黑箱储层",只训练它的输出层。大脑神经网络天然就是一个高维度的非线性动态系统,理论上是储层计算的理想载体。
问题在于:直接把神经元养在培养皿里,它们会自发形成高度同步的网络,所有细胞以相同节奏一起放电,这样的网络就像一个只会发出单一音调的乐器,完全无法承载复杂的信息处理任务。
研究团队用微流控技术解决了这个问题。他们用一种叫做PDMS的硅橡胶材料制成薄膜,将神经元细胞体限制在128个100微米见方的小方格里,每格平均容纳约15个神经元,方格之间通过微型通道相连,形成两种不同的网络拓扑结构:一种是均匀晶格排列,另一种是稀疏的分层连接。
物理约束打破了同步化。经过图案化处理后,相邻神经元之间的信号相关性从0.45骤降至0.11至0.12,网络动态的维度显著提升,神经元终于开始"各说各话",而不是"齐声合唱"。
接下来是记录与训练。研究团队使用一块包含26400个电极、间距仅17.5微米的高密度微电极阵列,实时采集神经元的放电序列,经过滤波处理后,通过线性解码层提取输出信号。这个输出信号随即以电刺激的形式反馈给神经元本身,形成一个约每333毫秒循环一次的闭环系统。
训练算法采用的是FORCE学习法,它实时调整解码层的权重,持续最小化系统输出与目标波形之间的误差。就这样,一团活体神经元被"教会"了按照指定节拍放电,分别生成周期为4秒、10秒和30秒的正弦波、三角波和方波。更令人印象深刻的是,同一批神经元还学会了逼近洛伦兹吸引子,这是一种复杂的三维混沌轨迹,系统输出信号与目标信号的相关性在所有维度上均高于0.8。
东北大学电气通信研究所教授山本秀明表示:"这项研究表明,活体神经元网络不仅具有生物学意义,还可以作为新型计算资源。"
从大鼠神经元到脑机接口,距离有多远
这项研究并非孤立存在,它出现在一个正在迅速升温的研究方向上。
澳大利亚Cortical Labs公司已将人类脑细胞整合进实际计算系统,并在2022年展示了用人类神经元打电子游戏的演示。约翰斯·霍普金斯大学的"类脑智能"项目正在探索用脑类器官进行低功耗AI运算,目标是在能耗上大幅超越传统硅芯片。背后的逻辑是相通的:大脑处理信息的能效,远超任何现有的人造芯片,人类大脑仅消耗约20瓦,却能完成硅芯片需要数兆瓦才能处理的复杂任务。
日本团队的这项成果,在方法论上有一个清晰的贡献:他们证明了微流控图案化是打破神经元过度同步化的有效手段,同时验证了活体生物神经网络可以通过在线闭环训练,完成具体的时序学习任务。这为未来将生物神经网络嵌入脑机接口或神经假体设备,提供了一条更清晰的技术路径。
当然,现实的限制仍然存在。训练停止后,系统性能会自然下降,99%的测试中均方误差随时间增大。约330毫秒的反馈延迟,也让系统难以追踪快速变化的信号。研究人员指出,通过专用硬件压缩这一延迟,是下一步优化的关键。
从一盘大鼠神经元,到真正可用的生物计算器件,路还很长。但方向已经指明。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.